thinclient

وبلاگی در حوزه تین کلاینت

thinclient

وبلاگی در حوزه تین کلاینت

مهندس هوش مصنوعی چه وظایفی دارد؟

مهندس هوش مصنوعی یکی از نقش‌های جدید در حوزه فناوری اطلاعات است. مهندسان هوش مصنوعی افرادی هستند که از هوش مصنوعی و تکنیک‌های یادگیری ماشین برای توسعه برنامه‌ها و سیستم‌هایی استفاده می‌کنند که می‌توانند به سازمان‌ها در افزایش کارایی، کاهش هزینه‌ها، افزایش سود و تصمیم‌ گیری بهتر در کسب‌ و کار کمک کنند. یک متخصص هوش مصنوعی بر توسعه ابزارها، سیستم‌ها و فرآیندهایی تمرکز دارد که هوش مصنوعی را قادر می‌سازد در دنیای واقعی به کار گرفته شود. هر برنامه‌ای که در آن ماشین‌ها از عملکردهای انسانی مانند: حل مسائل و یادگیری تقلید می‌کنند، می‌توان هوش مصنوعی در نظر گرفت.
مهندس هوش مصنوعی کیست؟
مهندس هوش مصنوعی یک متخصص فناوری اطلاعات است که ماموریت آن‌ها توسعه الگوریتم‌های هوشمندی است که قادر به یادگیری، تجزیه و تحلیل و پیش‌بینی رویدادهای آینده می‌باشند. مهندسان هوش مصنوعی یک محقق هستند که عملکرد مغز انسان را تجزیه و تحلیل می‌کنند تا برنامه‌های رایانه‌ای را با همان توانایی‌های شناختی انسان بسازند. مهندسان هوش مصنوعی باید در زمینه‌های مختلفی مانند: یادگیری ماشین یا یادگیری عمیق که برگرفته از هوش مصنوعی است، تخصص داشته باشند. یادگیری ماشینی مبتنی بر الگوریتم‌ها و درخت‌های تصمیم گیری (یکی از پرکاربردترین الگوریتم‌ها در بین الگوریتم‌های داده کاوی می‌باشد) است، در حالی که یادگیری عمیق مبتنی بر شبکه‌های عصبی است.
مهندس هوش مصنوعی موظف به انجام چه کارهایی است؟
مهندسی هوش مصنوعی از جمله نقش‌ها و مشاغل جدید حوزه فناوری اطلاعات و علوم رایانه‌ای است. که با استفاده از الگوریتم‌های یادگیری ماشین و یادگیری عمیق، مدل‌های هوش مصنوعی را برای ترسیم چشم‌اندازهای کسب‌ و‌ کارها ایجاد می‌کنند که می‌تواند برای تصمیم‌گیری‌های تجاری که کل سازمان را تحت تاثیر قرار می‌دهد استفاده شود. این مهندسان بسته به این ‌که سازمان‌ها چه اهدافی را دنبال می‌کنند هوش‌های مصنوعی قوی یا ضعیف ایجاد می‌کنند. مهندسان هوش مصنوعی درک کاملی از برنامه‌ نویسی،مهندسی نرم‌افزار  و علم داده‌ها دارند. آن‌ها از ابزارها و تکنیک‌های مختلفی استفاده می‌کنند تا بتوانند داده‌ها را پردازش و سیستم‌های هوش مصنوعی را توسعه داده و نگهداری کنند.
مسئولیت‌های مهندس هوش مصنوعی
مهندسان هوش مصنوعی نقش مهمی در سازمان‌هایی دارند که از هوش مصنوعی استفاده می‌نمایند. آن‌ها استراتژی هوش مصنوعی را ترسیم  و مشکلاتی را که باید با هوش مصنوعی حل شوند را تعریف می‌کنند. آن‌ها مسئول ایجاد زیرساخت و توسعه هوش مصنوعی و سپس پیاده سازی آن‌ها هستند. در اینجا برخی از وظایف و مسئولیت‌های خاص یک مهندس هوش مصنوعی آورده شده است:
زیر ساخت توسعه هوش مصنوعی را ایجاد و مدیریت می‌کنند.
انجام تجزیه و تحلیل آماری و تفسیر نتایج برای هدایت و بهینه سازی فرآیند تصمیم گیری سازمان
خودکارسازی زیرساخت‌هایی که گروه علم داده استفاده می‌کنند.
توانایی تعامل و هماهنگی با دیگران برای پیشبرد امور.
تنظیم و مدیریت زیرساخت‌های مورد نیاز برای اجرای مدل‌های هوشمند.
ایجاد هماهنگی میان دانشمندان داده و تحلیل گران کسب‌‌‌وکار
تبدیل مدل‌‌های یادگیری ماشین به API ‌‌هایی که قابل دسترسی توسط بقیه اپلیکیشن‌‌ها نیز باشد.
تست و استقرار مدل‌‌ها
توسعه حداقل محصول مناسب بر اساس یادگیری ماشین
به کارگیری هوش مصنوعی برای تجهیز سازمان با توانمندی‌‌های نوین
مهارت‌های مورد نیاز برای یک مهندس هوش مصنوعی
در ابتدا یک مهندس هوش مصنوعی به عنوان پیش نیاز باید به ریاضیات مسلط باشد و اطلاعات کافی درباره آمار، احتمال، منطق، حساب و الگویتم‌ها داشته باشد. برای مهندسان هوش مصنوعی مدرک فیزیک مهندسی یا روباتیک هم مورد قبول است. یکی دیگر از مسیرهای تحصیلی ممکن برای این شغل، کارشناسی در علوم رایانه است. که در مقطع کارشناسی ارشد در رشته مهندسی کامپیوتر و برای تخصص بیشتر در رشته‌های مرتبط باهوش مصنوعی در سطح دکترا ادامه میابد.
مهارت‌های برنامه نویسی
مهارت در برنامه نویسی یکی از مهارت‌های مهم و بیسیک است.

تبدیل عکس‌های جدید به عکس‌های تاریخی با ابزار هوش مصنوعی AI Time Machine

ابزار جدیدی به نام AI Time Machine به کاربران این قابلیت را می‌دهد. که بتوانند با استفاده از تصاویر خود، ظاهر خود را به سال‌های خیلی دور ده‌ها یا صدها سال قبل ببرند. این ابزار با کمک هوش مصنوعی کار می‌کند و محصول شرکت My Heritage  است. وب سایت My Heritage در خبری اعلام کرده است. که با استفاده از مدل تولید تصاویر Stable Diffusion  از شرکت  آستریا می‌تواند عکس را به سبک قدیمی تبدیل کند. ابزار هوش مصنوعی AI Time Machine هم اکنون روی دسکتاپ‌ها و مرورگرهای وب در دسترس است. که کاربر می‌تواند به صورت رایگان این ابزار هوش مصنوعی AI Time Machine را امتحان کند. این ابزار به افراد کمک می‌کند تا بتوانند خود را در حال استفاده از ابزارهای جنگی تاریخی مختلف مانند داشتن سپر از دوران وایکینگ‌ها را ببیند.
تبدیل عکس خود به عکس‌های تاریخی با ابزار هوش مصنوعی AI Time Machine 
برای انجام این کار ابتدا باید ثبت نام را کامل انجام دهید. اگر در این مرحله منصرف شدید، عکس‌هایی که بدون تکمیل ثبت ‌نام آپلود شده‌اند، به‌ طور خودکار حذف می‌شوند تا از حریم خصوصی شما محافظت شود. و در مرحله دوم کاربر باید 10 تا 25 عکس در زاویه‌های مختلف از چهره خودتان را آپلود کند. سپس هوش مصنوعی صورت کاربر را روی سر افراد با شکل و شمایل دوره‌های مختلف تاریخی قرار می‌دهد.
بنابراین با استفاده از ابزار هوش مصنوعی AI Time Machine می‌توانید چهره خود را در قالب یک جنگجوی یونانی، فرعون در مصر، بانویی در دوره ویکتوریایی یا وایکینگی در اسکاندیناوی، یک شوالیه قرون وسطایی و یا یک هیپی از دهه 1960 ببینید. در پایان کار، کاربران می‌توانند تصاویر خود را دانلود کنند و در شبکه‌های اجتماعی به اشتراک بگذارند.
ایجاد نتایج تصاویر معمولا بین 30 دقیقه تا 2 ساعت طول می‌کشد. سپس، کاربران پس از آماده شدن  عکس‌ها یک ایمیل دریافت خواهند کرد. برای اشتراک ‌گذاری آسان در شبکه‌های اجتماعی مانند: واتس‌اپ، اینستاگرام و فیسبوک، می‌توان تصاویر را به‌ صورت مجموعه‌ای هشت تایی یا جداگانه دانلود کرد.
این ویژگی در زمان راه اندازی برای یک دوره مقدماتی رایگان می‌باشد (با محدودیت یک مدل و 50 موضوع برای هر کاربر، که در مجموع برابر با 400 تصویر است). با این حال، پس از این محدودیت، تبدیل به یک نسخه پولی خواهد شد. البته این تصاویر واترمارک خواهند داشت تا از تصاویر واقعی افراد متمایز باشد. شرکت My Heritage گفته است که آن‌ها متعهد به استفاده مسئولانه از هوش مصنوعی هستند. علاوه بر این My Heritage  از کاربران می‌خواهد که اگر از تصاویر دیگران در این ابزار استفاده می‌کنند، در این زمینه مسئولیت عملکرد خود را بپذیرند.
گفته بنیانگذار شرکت My Heritage درباره ابزار AI Time Machine
گیلا جافت بنیانگذار و مدیر عامل My Heritage می‌گوید: ما در این شرکت دائما در حال توسعه روش‌های جدید برای متصل کردن افراد به تاریخچه خانوادگی آن‌ها هستیم. در طول سال‌های اخیر امکانات زیادی را عرضه کرده‌ایم. که با استفاده از هوش مصنوعی تصاویر قدیمی را زنده می‌کنند. AI Time Machine نوع دیگری از همین رویکرد است و شما را به سفر در گذشته و دیدن خودتان در قالب یکی از اجداد احتمالی شما دعوت می‌کند. دنیای  ای تی و فناوری اطلاعات به شدت و با سرعت زیاد در حال تغییر و تحول است.

تراشه Pohoiki Beach اینتل

در حال حاظر برخی از بزرگ‌ترین شرکت‌های فناوری در جهان در تلاش هستند تا با بازنگری در ماهیت رایانه‌ها بتوانند ماشین‌هایی را بسازند که بیشتر شبیه مغز انسان است، جایی که یک ساقه مغز مرکزی بر سیستم عصبی نظارت می‌کند. 
امروزه مهندسان کامپیوتر در حال ساختن سیستم‌های پیچیده‌تری هستند. ماشین‌های جدیدتر همه وظایف را از طریق یک تراشه ساده‌تر که توسط اینتل ساخته شده‌اند، و کار را به قطعات کوچک تقسیم می‌کنند و آن‌ها را در طیف وسیع تراشه‌های ساده‌تر و تخصصی‌تر که مصرف انرژی کمتری دارند، پخش می‌کنند. اینتل با معرفی محصول جدیدی به نام Pohoiki Beach، قصد دارد نیمه هادی‌هایی را توسعه دهد که روش کار مغز انسان را تقلید کنند.
این تراشه Pohoiki Beach داده‌هایی را پردازش می‌کند که کارها را مشابه مغز انسان انجام می‌دهد و بر چالش‌هایی که نسل اول تراشه‌های هوش مصنوعی را درگیر می‌کند می‌تواند غلبه ‌کند. با این تراشه Pohoiki Beach، اینتل هوش مصنوعی را به حوزه‌هایی که شبیه به شناخت انسان است، از جمله تفسیر و سازگاری مستقل، گسترش می‌دهد.
تسریع پردازش بارهای کارهای هوش مصنوعی با تراشه Pohoiki Beach
با توجه به نشانگر نیمه هادی سانتا کلارا، کالیفرنیا، با این رویکرد جدید در پردازش کامپیوتری، تراشه‌های جدید آن می‌توانند در مقایسه با واحدهای پردازش مرکزی یا CPUهای فعلی برای حجم کاری هوش مصنوعی، 1000 برابر سریع‌تر و 10000 برابر کارآمدتر کار کنند. تراشه Pohoiki Beach از 64 تراشه کوچک‌‌تر به نام Loihi تشکیل شده است. که با ترکیب آن‌ها می‌تواند مانند 8.3 میلیون نورون عمل کند که طبق یک گزارش همانند: مغز یک جونده کوچک است. مغز انسان نزدیک به 100 میلیارد نورون دارد. اینتل گفته است که تراشه Pohoiki Beach می‌تواند به ویژه در پردازش تصویر، وسایل نقلیه خودران و روبات‌های خودکار مفید باشد. 
در داخل اکثر سرورهای گوگل، هنوز یک پردازنده مرکزی وجود دارد. اما بانک‌های عظیمی از تراشه‌های سفارشی در کنار آن‌ها کار و الگوریتم‌های رایانه‌ای را اجرا می‌کنند. که تشخیص گفتار و سایر اشکال‌های هوش مصنوعی را هدایت می‌کنند.   
هوش مصنوعی تغییری در تمام زمینه‌ها ایجاد خواهد کرد 
اما آنچه در داخل مراکز داده آغاز شد، شروع به تغییر چشم ‌انداز سایر بخش‌های فناوری کرده است. طی چند سال آینده، شرکت‌هایی مانند: گوگل، اپل و سامسونگ گوشی‌هایی با هوش مصنوعی تخصصی خواهند ساخت. مایکروسافت در حال طراحی چنین تراشه‌ای به طور خاص برای هدست‌های واقعیت افزوده است. و همه از گوگل گرفته تا تویوتا در حال ساخت خودروهای خودران هستند که به تراشه‌های مشابه نیاز دارند.
گیل پرت، که مدیر برنامه در دارپا، بازوی تحقیقاتی وزارت دفاع ایالات متحده است، گفت: این گرایش به سمت تراشه‌های تخصصی و معماری جدید کامپیوتری می‌تواند منجر به انفجار کامبرین هوش مصنوعی شود. ماشین‌هایی که محاسبات را در تعداد زیادی از تراشه‌های کوچک و کم مصرف پخش می‌کنند، می‌توانند بیشتر شبیه مغز انسان عمل کنند.
تراشه‌هایی که به شبکه‌های عصبی مرتبط هستند
G.P.Uها می‌توانند ریاضیات مورد نیاز شبکه‌های عصبی را بسیار کارآمدتر از C.P.U پردازش کنند. انویدیا در حال پیشرفت است و اکنون تعداد زیادی G.P.U به غول‌های اینترنتی ایالات متحده و بزرگ‌ترین شرکت‌های آنلاین در سراسر جهان، به ویژه چین می‌فروشد. بنابراین، شرکت‌های اینترنتی پیشرو در حال حاضر شبکه‌های عصبی خود را با کمک نوع دیگری از تراشه به نام واحد پردازش گرافیکی یا G.P.U آموزش می‌دهند. این تراشه‌های کم مصرف معمولا توسط انویدیا ساخته می‌شوند. 
ایجاد تراشه‌های تخصصی
شرکت‌ها از G.P.U برای آموزش یک کار خاص به شبکه‌های عصبی استفاده می‌کنند اما این تنها بخشی از فرآیند است. هنگامی که یک شبکه عصبی برای یک کار آموزش داده می‌شود برای اینکه بتواند آن کار را انجام دهد به نوع دیگری از قدرت محاسباتی نیاز دارد. 
برای مثال: پس از آموزش یک الگوریتم تشخیص گفتار، مایکروسافت آن را به عنوان یک سرویس آنلاین ارائه می‌دهد. GPUها در این مرحله از فرآیند کاملا کارآمد نیستند. 
تراشه اختصاصی گوگل
گوگل یک تراشه تخصصی برای خود، با یک واحد پردازش تنسور یا T.P.U را ساخت. انویدیا در حال ساخت یک تراشه مشابه است. و مایکروسافت تراشه‌های تخصصی Altera را که توسط اینتل خریداری شده بود، دوباره برنامه‌ریزی کرده است تا بتواند شبکه‌های عصبی را راحت‌تر اجرا کند. شرکت‌های دیگر نیز از این روند پیروی می‌کنند. Qualcomm متخصص تراشه‌های گوشی‌های هوشمند است و تعدادی استارت‌آپ نیز روی A.I کار می‌کنند. 
رقابت برای ساخت سخت افزارها برای استفاده از هوش مصنوعی 
در رقابت برای ساخت سخت افزار بهتر برای هوش مصنوعی، اینتل به یک نوع قدیمی اما اثبات نشده، پردازنده کامپیوتری روی آورده است. تراشه‌های نورومورفیک، همانطور که شناخته شده‌اند، براساس مغز انسان طراحی شده‌اند اما پس از دهه‌ها تحقیق هنوز نتوانسته‌اند عملکرد بهتری را در برنامه‌های واقعی زندگی نسبت به CPUها و GPUهای معمولی نشان دهند. 
این نورون‌ها جایگزین Traditional gates موجود در سیلیکون امروزی می‌شوند و به جای پردازش اطلاعات به صورت 1 و 0 باینری، سیگنال‌هایی را ارسال می‌کنند و عملکرد آن‌ها را بیشتر به صورت آنالوگ انجام می‌شود تا باینری. 
تراشه‌های نورومورفیک تا 1000 برابر کمتر از پردازنده‌های معمولی انرژی مصرف می‌کنند
همه این تفاوت‌های ساختاری باعث می‌شود تراشه‌های نورومورفیک بسیار کارآمدتر از پردازنده‌های امروزی باشند و تا ۱۰۰۰ برابر انرژی کمتری مصرف کنند. این یک مزیت بزرگ در هنگام کار کردن هوش مصنوعی بر روی دستگاه‌هایی مانند تلفن و لپ تاپ است. 
اما علیرغم مزایای بی نظیر پردازنده‌های نورومورفیک، تراشه‌ها هنوز نتایج واقعی را در خارج از آزمایشگاه نشان نداده‌اند. آن‌ها در تحقیقات دانشگاهی و صنعتی عملکرد خوبی داشته‌اند، اما به یک محصول مصرفی مناسب تبدیل نشده‌اند. 
تراشه Pohoiki Beach و خودروهای خودران
اینتل با تراشه Pohoiki Beach  به خودروهای خودران به عنوان نمونه‌ای اشاره کرد که در آن تراشه هوش مصنوعی جدید ضروری است. نیمه هادی‌های مورد استفاده در خودروهای خودران می‌توانند در مسیر GPS حرکت کنند و سرعت خودرو را کنترل کنند. تراشه‌های هوش مصنوعی خودرو را قادر می‌سازد تا محیط اطراف خود را تشخیص دهد و به آن پاسخ دهد و از تصادف با یک عابر پیاده جلوگیری کند.
اما برای پیشرفت خودروهای خودران، سیستم‌ها باید تجربیاتی را که انسان هنگام رانندگی به دست می‌آورد، اضافه کند، مانند: نحوه برخورد با یک راننده تهاجمی یا توقف زمانی که توپ به خیابان می‌رود. 
نتیجه گیری 
هوش مصنوعی به قدرت محاسباتی عظیمی نیاز دارد که محدودیت‌های مدرن‌ترین ماشین‌ها را کاهش ‌دهد. پس از سال‌ها رکود، کامپیوتر دوباره در حال تکامل است. این پیشرفت اجازه می‌دهد تا کاربر روی سیستم‌های هوشمند مصنوعی شتاب بگیرد، بنابراین رویای ماشین‌هایی که می‌توانند به تنهایی دنیای فیزیکی را هدایت کنند، می‌تواند روزی محقق شود.

تعریف داده کاوی و کاربرد آن در دنیای امروزی

داده کاوی یک تکنیک تجزیه و تحلیل داده است که بر مدل سازی آماری و کشف دانش برای اهداف پیش بینی شده است. این فناوری اغلب برای هر مشکلی از داده‌ها یا پردازش اطلاعات در مقیاس بزرگ (جمع ‌آوری، استخراج، انبارداری، تجزیه و تحلیل و آمار) و همچنین هوش مصنوعی، به کار می‌رود. Data mining فرآیند مرتب سازی داده‌ها می‌باشد که از طریق مجموعه داده‌های بزرگ برای شناسایی الگوها و روابطی استفاده می‌شود که می‌تواند به حل مشکلات تجاری از طریق تجزیه و تحلیل داده‌ها کمک کند. تکنیک‌ها و ابزارهای Data mining شرکت‌ها را قادر می‌سازد تا روندهای آینده را پیش بینی کنند و بتوانند تصمیمات تجاری آگاهانه‌تری بگیرند. داده کاوی بخش کلیدی تجزیه و تحلیل داده می‌باشد که به طور کلی یکی از رشته‌های اصلی در علم داده است که از تکنیک‌های تجزیه و تحلیل پیشرفته برای یافتن اطلاعات مفید در مجموعه داده‌ها استفاده می‌کند.
تاریخچه داده کاوی و پیشرفت‌های کنونی
فرآیند کاوش در میان داده‌ها برای کشف ارتباطات پنهان و پیش بینی روندهای آینده سابقه طولانی دارد. اصطلاح داده کاوی که گاهی به عنوان کشف دانش در پایگاه‌های داده شناخته می‌شود. پایه و اساس آن شامل سه رشته علمی در هم‌ تنیده است.
آمار (مطالعه عددی روابط داده‌ها)
هوش مصنوعی (هوش شبیه انسان که توسط نرم ‌افزار و یا ماشین‌ها نمایش داده می‌شود)
یادگیری ماشینی (الگوریتم‌هایی که می‌توانند از داده‌ها برای پیش ‌بینی استفاده شوند)
Data mining چیست؟
در یک سطح جزئی‌تر، داده کاوی گامی در فرآیند کشف دانش در پایگاه‌های داده (KDD) است، یکی از روش‌های علم داده برای جمع آوری اطلاعات، پردازش و تجزیه و تحلیل داده‌ها می‌باشد. Data mining فرآیند استخراج و کشف الگوها در مجموعه داده‌های بزرگ است که شامل یادگیری ماشین، آمار و سیستم‌های پایگاه داده است. استخراج اطلاعات با استفاده از روش‌های هوشمند از مجموعه داده‌ها و تبدیل اطلاعات به یک ساختار قابل درک برای استفاده بیشتر است. Data mining مرحله تجزیه و تحلیل فرآیند کشف دانش در پایگاه‌های داده یا KDD است. جدا از مرحله تجزیه و تحلیل، همچنین شامل جنبه‌های پایگاه داده و مدیریت داده، پیش پردازش داده‌ها، پردازش ساختارهای کشف شده، تجسم، و به روز رسانی آنلاین است.
داده کاوی چگونه انجام می‌شود؟
Data mining بر داده‌های‌ بزرگ و فرآیندهای محاسباتی پیشرفته از جمله یادگیری ماشینی و سایر اشکال هوش مصنوعی (AI) متکی است. هدف یافتن الگوهایی هستند که می‌توانند به پیش بینی از داده‌های بدون ساختار یا بزرگ منجر شود. فرآیندهای Data mining برای ساخت مدل‌های یادگیری ماشینی مورد استفاده قرار می‌گیرند که برنامه‌های کاربردی از جمله فناوری موتورهای جستجو باعث می‌شوند که وب ‌سایت تقویت شود.
وظایف Data mining چیست؟
وظیفه واقعی داده کاوی تجزیه و تحلیل نیمه خودکار یا خودکار مقادیر زیادی از داده‌ها برای استخراج الگوهای ناشناخته قبلی مانند: گروه‌های رکورد داده‌ها (تحلیل خوشه‌ای)، رکوردهای غیر معمول (تشخیص ناهنجاری) و وابستگی‌ها (استخراج الگوی متوالی).این الگوها سپس می‌توانند به ‌عنوان نوعی خلاصه‌ از داده‌های ورودی دیده شوند. برای مثال ممکن است در یادگیری ماشینی و تجزیه و تحلیل پیش‌بینی‌ کننده استفاده شوند. به عنوان مثال: در یکی از مراحل Data mining ممکن است چندین گروه را در داده‌ها شناسایی کنند، که سپس می‌تواند برای به دست آوردن نتایج، پیش بینی دقیق‌تر توسط یک سیستم پشتیبانی استفاده کنند. اگر چه به ‌عنوان مراحل اضافی به فرآیند کلی KDD (دانش در کشف داده‌ها (تعلق دارند.
تعریف KDD
بسیاری از مردم داده کاوی را مترادف واژه‌های رایج کشف دانش در پایگاه‌داده‌ها ( knowledge discovery in databases) می‌دانند. KDD زمینه‌ای از علوم رایانه است که شامل ابزارها و تئوری‌هایی برای کمک به انسان‌ها در استخراج اطلاعات مفید از مجموعه‌های بزرگ داده‌های دیجیتالی است.
پیش پردازش
یک منبع متداول برای داده‌ها، دیتا مارتData mart  یا انبار داده data warehouse است. پیش پردازش برای تجزیه و تحلیل مجموعه داده‌های چند متغیر قبل از انجام Data mining ضروری است.
 روند فرآیند کشف دانش در پایگاه‌های داده (KDD) معمولا با مراحل زیر تعریف می‌شود:
انتخاب
پیش پردازش
دگرگونی
داده کاوی
تفسیر/ارزیابی
شش کاربرد رایج Data mining
1. تشخیص ناهنجاری: تشخیص ناهنجاری (تشخیص بیرونی/تغییر/انحراف) شناسایی سوابق داده‌های غیر عادی، که ممکن است جالب باشند یا خطاهای داده‌ای که نیاز به بررسی بیشتر دارند.
2. یادگیری قانون انجمن: یادگیری قانون انجمن، مدل سازی، وابستگی روابط بین متغیرها را جستجو می‌کند. به عنوان مثال یک سوپر مارکت ممکن است داده‌هایی را در مورد عادات خرید مشتری جمع آوری کند. با استفاده از یادگیری قوانین، سوپر مارکت می‌تواند تعیین کند که کدام محصولات اغلب با هم خریداری می‌شوند و از این اطلاعات برای اهداف بازاریابی استفاده کنند.
3. خوشه‌ بندی: خوشه بندی وظیفه کشف گروه‌ها و ساختارهایی در داده‌ها است که به نوعی مشابه هستند، بدون استفاده از ساختارهای شناخته شده در داده‌ها.
4. طبقه بندی: طبقه بندی وظیفه تعمیم ساختار شناخته شده برای اعمال به داده‌های جدید است. به عنوان مثال:یک برنامه ایمیل ممکن است سعی کند یک ایمیل را به عنوان هرزنامه طبقه بندی کند.
5. رگرسیون: رگرسیون تلاش برای یافتن تابعی که داده‌ها را با کم‌ترین خطا مدل می‌کند تا روابط بین داده‌ها یا مجموعه داده‌ها را تخمین بزند.
6. خلاصه سازی: خلاصه سازی ارائه یک نمایش فشرده‌تر از مجموعه داده‌ها، از جمله تجسم و تولید گزارش است.
داده کاوی به شما این امکان را می‌دهد:
تمام نویزهای پر هرج و مرج و تکراری داده‌های خود را غربال کنید.
آنچه مرتبط است را درک کنید و سپس از آن اطلاعات برای ارزیابی نتایج احتمالی به خوبی استفاده کنید.
همچنین کمک می‌کند تا خیلی سریع بتوانید تصمیم اگاهانه بگیرید.
چرا Data mining مهم است؟
این فناوری جز حیاتی ابتکارات تحلیلی موفق در سازمان‌ها است. Data mining موثر در جنبه‌های مختلف مانند: برنامه ریزی استراتژی‌های تجاری و مدیریت عملیات کمک می‌کند. این شامل کارکردهای مواجهه با مشتری مانند: بازاریابی، تبلیغات، فروش و پشتیبانی مشتری، به علاوه تولید، مدیریت زنجیره تامین، امور مالی و منابع انسانی است.
Data mining از کشف تقلب، مدیریت ریسک، برنامه ریزی امنیت سایبری و بسیاری دیگر از موارد استفاده حیاتی تجاری پشتیبانی می‌کند. همچنین نقش مهمی در مراقبت‌های بهداشتی، دولتی، تحقیقات علمی، ریاضیات، ورزش و غیره ایفا می‌کند.
ویژگی‌های کلیدی داده کاوی
پیش بینی‌های خودکار الگو بر اساس تحلیل روند و رفتار
پیش بینی بر اساس نتایج احتمالی
ایجاد اطلاعات تصمیم گرا
تمرکز روی مجموعه داده‌ها و پایگاه‌های داده بزرگ برای تجزیه و تحلیل
داده کاوی برای انجام چه کارهایی استفاده می‌شود؟
کاربردهای Data mining از بخش مالی برای جستجوی الگوها در بازارها تا تلاش برای دولت‌ها برای شناسایی تهدیدهای امنیتی بالقوه را شامل می‌شود. تمام شرکت‌ها به ویژه شرکت‌های آنلاین و رسانه‌های اجتماعی، از این تکنولوژی برای کاربران خود برای ایجاد کمپین‌های تبلیغاتی و بازاریابی سودآوری که مجموعه خاصی از کاربران را مورد هدف قرار داده‌اند، استفاده می‌کنند.
Data mining و رسانه‌های اجتماعی 
یکی از سودآورترین کاربردهای Data mining، شبکه‌های اجتماعی بوده است. پلتفرم‌هایی مانند فیسبوک (متعلق به متا) تیک تاک، اینستاگرام و توییتر مجموعه‌ای از داده‌ها را در مورد کاربران فردی جمع‌آوری می‌کنند تا بتوانند تبلیغات بازاریابی هدفمند ارسال کنند. همچنین از این داده‌ها برای تاثیر گذاری بر رفتار کاربران و تغییر ترجیحات آن‌ها استفاده می‌شود، خواه برای یک محصول پر مصرف باشد یا اینکه افراد در انتخابات به چه کسی رای می‌دهند.
نتیجه گیری
داده کاوی فرآیند یافتن ناهنجاری‌ها، الگوها و همبستگی‌ها در مجموعه داده‌های بزرگ برای پیش بینی نتایج بزرگ است. با استفاده از طیف وسیعی از تکنیک‌‌‌های Data mining، می‌توانید از این اطلاعات برای افزایش دآرمد، کاهش هزینه‌ها، بهبود روابط با مشتری، کاهش خطرات و موارد دیگر استفاده کنید.

آشنایی با قدرتمندترین پردازنده نورومورفیک در جهان

همانطور که از نامش پیداست، پردازش نورومورفیک از مدلی استفاده می کند که عملکرد مغز انسان را تقلید می‌کند. مغز یک مدل جذاب برای محاسبات ایجاد می‌کند: برخلاف بیشتر ابر کامپیوتر‌ها که اتاق‌ها را پر می‌کنند، مغز جمع‌وجور است و به‌خوبی در جعبه ای به اندازه سر شما قرار می‌گیرد. همچنین مغزها نسبت به ابررایانه ها به انرژی بسیار کمتری نیاز دارند: مغز شما حدود 20 وات انرژی مصرف می‌کند، در حالی که ابررایانه فوگاکو به 28 مگاوات نیاز دارد!
یکی از جدیدترین زیر شاخه‌های مهندسی، مهندسی نورومورفیک است که مهندسی برق، کامپیوتر و مکانیک را با زیست شناسی، فیزیک و علوم اعصاب ترکیب می‌کنند. مهندسی نورومورفیک در حال حاضر در صنایع مختلف در سراسر جهان با اهداف و مفاهیم گسترده برای محاسبات و توسعه در آینده مورد بررسی قرار گرفته است. مهندسی نورومورفیک زیر مجموعه‌ای از مهندسی کامپیوتر است که بارهای پردازشی را در ساختاری مشابه آنچه که مغز انسان انجام می‌دهد، مدیریت می‌کند. اغلب، سیستم‌های مهندسی نورومورفیک از سیستم‌های VLSI (ادغام در مقیاس بسیار بزرگ) برای تقلید از معماری سیستم عصبی و مغز انسان استفاده می‌کنند. در این مقاله با مفهوم جذاب پردازش نورومورفیک بیشتر آشنا می‌شوید.
نگاهی به مهندسی نورومورفیک
مهندسی نورومورفیک که به عنوان پردازش نورومورفیک نیز شناخته می‌شود، به استفاده از سیستم‌های یکپارچه در مقیاس بزرگ (VSLI) اشاره دارد که شامل مدارهای آنالوگ الکترونیکی برای تقلید از معماری‌های عصبی بیولوژیکی موجود در سیستم عصبی انسان است. کامپیوتر/تراشه نورومورفیک وسیله‌ای است که از نورون‌های مصنوعی (ساخته شده از سیلیکون) برای انجام محاسبات استفاده می‌کند.
اصطلاح نورومورفیک به تازگی برای توصیف آنالوگ، دیجیتال، ترکیبی از آنالوگ/دیجیتال VLSI و سیستم‌های نرم‌افزاری که مدل‌های سیستم‌های عصبی (ادراک، حرکتی، یا احساسات مختلف) را پیاده‌سازی می‌کنند، استفاده می‌شود. یکی از جنبه‌های کلیدی مهندسی نورومورفیک درک این موضوع است که چگونه مورفولوژی تک ‌نورون‌ها، مدارها، برنامه‌ها معماری‌های محاسباتی مطلوبی را ایجاد می‌کنند، بر نحوه نمایش اطلاعات تاثیر می‌گذارند، و تغییرات تکاملی را تسهیل می‌کنند.
مهندسی نوروفورمیک موضوعی بین رشته‌ای است که از زیست شناسی، فیزیک، ریاضیات، علوم کامپیوتر و مهندسی الکترونیک برای طراحی سیستم‌های عصبی مصنوعی، مانند: سیستم‌های بینایی، پردازنده‌های شنوایی، و ربات‌های مستقل الهام می‌گیرد. اصول معماری و طراحی پردازنده نورومورفیک بر اساس سیستم‌های عصبی بیولوژیکی شکل گرفته است.
پردازش نورومورفیک و تقلید از مغز
مهندسی نورومورفیک در حال حاظر با الهاماتی از ساختار و عملکرد مغز طراحی شده است. مهندسی نورومورفیک عملکرد مغز را به زبان سیستم‌های کامپیوتری ترجمه می‌کند. فرآیند بیولوژیکی نورون‌ها سیناپس‌ها (نوعی سلول عصبی) بسیار پیچیده است. یکی از ویژگی‌های کلیدی مغزهای بیولوژیکی این است که تمام پردازش‌های آن از سیگنال‌های شیمیایی آنالوگ استفاده می‌کنند.
هدف محاسبات نورومورفیک
هدف پردازش نورومورفیک تقلید کامل مغز و تمام عملکردهای آن نیست، بلکه در عوض استخراج ساختار و عملیات آن برای استفاده در یک سیستم محاسباتی می‌باشد. سیستم‌های نورومورفیک هیچ تلاشی برای باز تولید نورون‌ها و سیناپس‌ها ندارند، اما همه به این ایده پایبند هستند که پردازش کلی باید در یک سری از عناصر محاسباتی کوچک مشابه یک نورون توزیع شوند.
کاربرد فناوری نورومورفیک در صنایع مختلف
به طور کلی پردازش نورومورفیک کاربردهای بسیاری در صنایع مختلف دارد که در موارد زیر خلاصه می‌شوند:
بهینه سازی فرآیند
تجزیه و تحلیل داده‌ها 
درک زبان طبیعی
ماشین‌های بدون راننده
دستگاه‌های خانه‌های هوشمند 
اعمال ملاحظات اخلاقی در مورد مهندسی نورومورفیک
در حالی که مفهوم بین رشته‌ای پردازش نورومورفیک نسبتا جدید است، بسیاری از ملاحظات اخلاقی مشابهی که در مورد ماشین‌های شبیه انسان و به طور کلی هوش مصنوعی اعمال می‌شود، در سیستم‌های نورومورفیک نیز وجود دارد. بحث اصلی این است که سخت‌افزار نورومورفیک و همچنین «شبکه‌های عصبی» مصنوعی، مدل‌های ساده‌ای از نحوه عملکرد مغز یا پردازش اطلاعات با پیچیدگی بسیار کمتر از نظر اندازه و فناوری هستند.
واقعیت این است که سیستم‌های شناختی عصبی بسیار کارآمدتر از هوش مصنوعی و مهندسی نورومورفیک هستند که از نظر انرژی و محاسبات بسیار بهتر عمل می‌کنند و مهندسی نورومورفیک در تلاش است تا این شکاف را با الهام از مکانیسم مغز کاهش دهد.
پردازش نورومورفیک چگونه کار می‌کند؟
در حالی که محاسبات نورومورفیک به جنبه تفکر مغز محدود می‌شود، درست مانند یک سیستم هوش مصنوعی نورومورفیک کار می‌کند. مهندسی نورومورفیک شامل بازسازی کل سیستم عصبی را که در مغز یافت می‌شود، مانند: حس کردن و سایر اعمال لمسی می‌باشد. با این حال، تمرکز مهندسی نورومورفیک در بخش سیستم عصبی مغز است، زیرا مغز پیچیده‌ترین و ناشناخته‌ترین مجموعه سیستم عصبی می‌باشد. 
شبکه‌های عصبی سنتی و محاسبات یادگیری ماشینی معمولا بر روی ارائه محاسبات بسیار سریع متمرکز هستند. به این معنی که آن‌ها می‌توانند بسیاری از وظایف را در یک زمان انجام دهند.  همچنین آن‌ها به اتفاقات مختلف بر اساس شرایط محیطی متغیر پاسخ می‌دهند و سازگاری و انعطاف پذیری بالایی دارند. علاوه بر این، در برابر خطا قوی و مقاوم هستند، به این معنی که همچنان می‌توانند در صورت خرابی یا کار افتادن قطعات، شرایط را مدیریت کنند.
پردازش نورومورفیک با ساختن سیستم‌های عصبی مصنوعی که «نورون‌ها» (گره‌های پردازش اطلاعات) و «سیناپس» (اتصال بین آن گره‌ها) را برای انتقال سیگنال‌های الکتریکی با استفاده از مدارهای آنالوگ اجرا می‌کنند، به عملکرد و کارایی مغز دست می‌یابند. این کار مقدار الکتریسیته جاری بین آن گره‌ها را تعدیل می‌کند تا درجات مختلفی از قدرت سیگنال‌های مغزی طبیعی را تقلید کنند.
تراشه نورومورفیک با ادغام حافظه می‌تواند اطلاعات را به روشی بسیار کارآمدتر پردازش کند، و تراشه‌ها را قادر ‌سازد تا به طور همزمان بسیار کارآمد عمل کنند. هر نورون جداگانه بسته به وظیفه‌ای که دارد پردازش را انجام می‌دهد.
تحقیقات انجام شده برای محاسبات نورومورفیک
آزمایشگاه‌های اینتل تحقیقاتی را برای کمک به تحقق پردازش نورومورفیک جهت فعال کردن دستگاه‌های هوشمند نسل بعدی و سیستم‌های مستقل رهبری می‌کنند. با هدایت اصول محاسبات عصبی بیولوژیکی، پردازش نورومورفیک از الگوریتم‌های جدیدی استفاده می‌کند که نحوه تعامل مغز انسان با جهان را برای ارائه قابلیت‌های نزدیک به رفتار انسان تقلید می‌کند.
مدل‌های جدید شبکه‌های عصبی Spiking (SNN) که یادگیری طبیعی را در شبکه‌های عصبی با شبیه سازی می‌کند، در محاسبات نورومورفیک برای تصمیم‌گیری و پاسخ به الگوها در طول زمان استفاده می‌شوند. پردازنده‌های نورومورفیک از این SNNها استفاده می‌کنند تا قدرت و عملکردی بهتر داشته باشند. 
مهندسی نورومورفیک تا حدودی شگفت‌آور است. این تکنولوژی به بیداری مجدد محاسبات آنالوگ در دنیای الکترونیک و محاسبات کمک بسیاری کرده است؛ زیرا در حال حاظر نیازمند توسعه در هر دو جنبه عصبی و حسی علوم اعصاب هستیم. آنالوگ الکترونیک به سرعت تحت تاثیر عصر دیجیتال قرار گرفته است و پردازنده‌ها در هر شکل و اندازه‌ای به تکنیک‌های پردازش دیجیتال متکی هستند. این فناوری هنوز در مراحل ابتدایی خود است، اما تاثیر آن بر آینده الکترونیک و محاسبات عمیق خواهد بود. 
شبکه عصبی اسپکینگ (SNN)
سیستم نورون‌ها و سیناپس‌هایی که این پالس‌های الکتریکی را منتقل می‌کنند به عنوان یک شبکه عصبی اسپکینگ (SNN) شناخته می‌شود. این سیستم تغییرات سیگنال آنالوگ را اندازه‌گیری می‌کند.  در شبکه‌های عصبی سنتی از سیگنال‌های دیجیتالی به مقدار بسیار کم استفاده می‌شود.
یک معماری سنتی تراشه کامپیوتری معروف به معماری فون نویمان، معمولا دارای یک واحد حافظه مجزا (MU)، واحد پردازش مرکزی (CPU) و مسیرهای انتقال داده است. این بدان معنی است که اطلاعات باید به طور مکرر بین مولفه‌های مختلف جا به ‌جا شوند، چرا که رایانه باید یک چرخه معین را تکمیل کند. 
نتیجه گیری
محاسبات نورومورفیک روشی از مهندسی کامپیوتر است که در آن عناصر یک کامپیوتر بر اساس سیستم‌های موجود در مغز و سیستم عصبی انسان مدل سازی می‌شوند. فناوری‌های محاسباتی نورومورفیک برای آینده محاسبات مهم خواهند بود. بسیاری از کارها در پردازش نورومورفیک بر توسعه سخت‌افزار متمرکز شده‌اند. شرکت‌هایی مانند: اینتل، آی‌بی‌ام و گوگل منابع گسترده‌ای را به استراتژی‌های مهندسی نورومورفیک اختصاص داده‌اند و در تلاش برای تحقق انقلاب‌ معماری محاسباتی هستند.