دانشجویان کارشناسی ارشد مهندسی برق کنترل

۱۹۸۳ مطلب در اسفند ۱۴۰۲ ثبت شده است

  • فرزاد تات

شار نوری

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۷ ب.ظ

در نورسنجی، شار نوری (نام علمیLuminous flux)، توان نوری یا میزان نور،[۵] معیاری است برای سنجش توان دریافت شده از نور. شار نوری را نباید با شار تابشی که معیاری برای سنجش توان کل نور گسیل‌شده‌است اشتباه گرفت زیرا شار نوری به گونه‌ای تعریف شده تا بازتاب‌دهندهٔ حساسیت متغیر چشم انسان به طول موج‌های مختلف نور باشد.

یکاها

در دستگاه بین‌المللی یکاها، یکای شار نوری، لومن (lm) است. هر لومن به صورت شار نوری تولیدشده توسط یک منبع نوری با شدت روشنایی یک کاندلا در زاویهٔ فضایی یک استرادیان تعریف می‌شود. در دیگر دستگاه‌های اندازه‌گیری، شار نوری ممکن است با توان هم‌یکا باشد.

  • فرزاد تات

حوزه های کاربردی حاکمیت امنیت داده اینترنت اشیا در شهر هوشمند

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۶ ب.ظ
  • فرزاد تات

واسط مغز-رایانه (brain–computer interface) (مخفف: BCI)

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۳ ب.ظ

واسط مغز-رایانه (brain–computer interface) (مخفف: BCI)، که برخی مواقع به آن واسط مغز-ماشین (BMI) نیز گفته می‌شود، یک مسیر مستقیم ارتباطی بین فعالیت‌های الکتریکی مغزی و یک دستگاه خارجی است که اغلب یک کامپیوتر یا عضو رباتیک می‌باشد. واسط‌های مغز و رایانه اغلب برای چنین اهدافی به کار می‌روند: تحقیقات، نگاشت مغزی، یاریگری، ازدیاد توانایی انسان، ترمیم ادراک انسانی یا عملکردهای حسی-حرکتی.[۱] دامنه پیاده‌سازی‌های BCIها در چنین مواردی است: EEG،‏ MEG،‏ EOG،‏ MRI، که برحسب این که الکترودها تا چه میزان نزدیک بافت عصبی باشند، برخی تاحدی تهاجمی (مثل ECoG و درون-عروقی) و برخی دیگر تهاجمی (مثل آرایه میکروالکترودی) هستند.[۲]

تحقیقات بر روی BCIها در دهه ۱۹۷۰ میلادی توسط «ژاک وایدال» (Jacques Vaidal) در دانشگاه کالیفرنیا در لس آنجلس (UCLA) تحت کمک هزینه از سوی بنیاد ملی علوم و در پی بسته شدن قراردادی با دارپا شروع شد.[۳][۴] مقاله ۱۹۷۳ میلادی وایدال، اولین ظهور عبارت «واسط مغز-کامپیوتر» در متون علمی است.

بر اساس قابلیت انعطاف‌پذیری غشای خارجی مغز، پیامهایی که از اندام‌های ساختگی کاشته شده ارسال می‌گردند، پس از سازگاری، می‌توانند مانند ارتباطات طبیعی حسی-حرکتی توسط مغز کنترل شوند.[۵] پس از سال‌ها آزمایش بر روی جانوران، اولین دستگاه‌های نوروپروستتیک کاشته شده در انسان‌ها طی اواسط دهه ۱۹۹۰ میلادی ظهور پیدا کردند.

اخیراً مطالعاتی در زمینهٔ تعامل انسان و رایانه صورت گرفته که در آن از یادگیری ماشین برای تحلیل داده‌های آماری زمانی استخراج شده از لوب پیشانی (نوار مغزی EEG) استفاده کرده‌اند و در نتیجه آن موفقیت بالایی در رده‌بندی حالات ذهنی (استراحت، خنثی، تمرکز)،[۶] حالات هیجانی ذهنی (منفی، خنثی، مثبت)[۷] و دیسریتمیای تالاموکورتیکال بدست آمده‌است.[۸]

  • فرزاد تات

نوروروباتیک

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۲ ب.ظ

نوروروباتیک (Neurorobotics)، علم و فناوری مربوط به سیستم‌های عصبی خودکار تجسم یافته‌است که یک مطالعه ترکیبی از علوم اعصاب، روباتیک و هوش مصنوعی می‌باشد. سیستم‌های عصبی شامل الگوریتم‌های تأثیر گرفته از مغز (به عنوان مثال شبکه‌های اتصال دهنده)، مدل‌های محاسباتی مربوط به شبکه‌های عصبی بیولوژیکی (به عنوان مثال شبکه‌های عصبی اسپایکی و شبیه‌سازی میکرومدارهای عصبی در مقیاس بزرگ) و سیستمهای بیولوژیکی حقیقی (مانند شبکه‌های عصبی داخل و خارج بدن) هستند. چنین سیستم‌های عصبی را می‌توان در ماشین‌هایی با عملکرد مکانیکی یا هر شکل دیگری از تحریک فیزیکی مجسم کرد. این ماشین‌ها شامل روبات‌ها، سیستم‌های پروتزی یا سیستم‌های پوشیدنی (wearable systems)، میکرو ماشین‌ها در مقیاس کوچکتر و تجهیزات و دستگاه‌ها در مقیاس بزرگتر می‌باشد. نوروروباتیک شاخه ای از علوم اعصاب (نوروساینس) ترکیب شده با روباتیک است، که به مطالعه و کاربرد علم و فناوری مربوط به سیستم‌های عصبی خودکار تجسم یافته، مانند الگوریتم‌های الهام گرفته از مغز می‌پردازد. ایده اصلی نوروروباتیک آن است که یک مغز برای روبات در نظر گرفته می‌شود و جسم فیزیکی آن برای انجام عمل در محیط قرار می‌گیرد؛ بنابراین، بسیاری از نوروروبات‌ها موظفند بر خلاف یک محیط شبیه‌سازی شده، در دنیای واقعی عمل کنند.[۱]

مقدمه[ویرایش]

نوروروباتیک بیانگر یک رویکرد دو طرفه از مطالعه هوش است. علوم اعصاب تلاش می‌کند با بررسی سیستم‌های هوشمند بیولوژیکی، چگونگی عملکرد و اجزای هوش را تعیین کند، در حالی که مطالعه هوش مصنوعی تلاش می‌کند تا با استفاده از روشهای غیر بیولوژیکی یا ابزارهای مصنوعی، هوش را دوباره به وجود بیاورد. نوروروباتیک هردو زمینه مطالعاتی فوق را در بر می‌گیرد، که در آن تئوری‌های بر گرفته شده از سیستم‌های بیولوژیکی در یک محیطی که بر اساس مدل ارائه شده ایجاد شده‌است، آزمایش می‌شوند. موفقیت‌ها و شکست‌های آزمایش یک نوروروبات و مدلی که از آن ساخته شده‌است می‌تواند شواهدی را برای رد یا پشتیبانی از آن تئوری فراهم کند و بینشی برای مطالعه آینده باشد.

دسته‌های اصلی مدل‌های نوروروباتیک[ویرایش]

نوروروبات را می‌توان بر اساس هدف ربات به دسته‌های مختلف تقسیم کرد. هر دسته برای پیاده‌سازی یک مکانیسم خاص به منظور مطالعه آن مکانیسم طراحی شده‌است. انواع متداول نوروروبات‌ها مواردی هستند که برای بررسی کنترل حرکتی، حافظه، انتخاب عملکرد و ادراک استفاده می‌شوند.

حرکت و کنترل حرکت[ویرایش]

نوروروبات‌ها اغلب برای مطالعه فیدبک حرکتی و سیستم‌های کنترلی استفاده می‌شوند و مزیتهای فراوانی دارند. حرکت توسط تعدادی از نظریه‌های برگرفته شده از عملکرد بخش‌های عصبی مربوط به حرکت، مدلسازی می‌شود. کنترل حرکت از مدلها یا مولدهای الگوی مرکزی شبیه‌سازی می‌شود تا روبات چهار پا بسازد. مولدهای الگوی مرکزی مجموعه ای از نورون‌های عصبی هستند که باعث ایجاد رفتارهای تکراری می‌شوند.[۲] گروه‌های دیگر ایده ترکیب سیستم‌های کنترلی ابتدایی را با یک مجموعه سلسله مراتبی از سیستم‌های خودکار ساده گسترش داده‌اند. این سیستم‌ها می‌توانند حرکت‌های پیچیده را از ترکیب این زیر مجموعه‌های ابتدایی به‌وجود آورند.[۳] این تئوری مربوط به عملکرد حرکتی مبتنی بر سازماندهی ستونهای قشری مغز می‌باشد. این ساختار که به تدریج از ورودی حسی ساده شروع می‌شود و به سیگنالهای پیچیده در فیبر عصبی آوران ختم می‌شود، یا بالعکس از برنامه‌های حرکتی پیچیده گرفته تا کنترل‌های ساده برای هر فیبر عضلانی در اثر عبور سیگنال‌های وابران، یک ساختار سلسله مراتبی مشابهی را تشکیل می‌دهند.

روش دیگر برای کنترل حرکت استفاده از تصحیح خطای آموخته شده و کنترل‌های پیش‌بینی کننده برای ایجاد نوعی حافظه عضله ای شبیه‌سازی شده‌است. در این مدل، حرکات تصادفی و دارای خطا با استفاده از فیدبک خطا اصلاح می‌شوند تا حرکات منظم و دقیقی با گذشت زمان ایجاد شود. کنترل‌کننده با پیش‌بینی خطا یادمی‌گیرد که، سیگنال کنترلی صحیحی را ایجاد کند. با استفاده از این ایده‌ها، روبات طراحی شده می‌تواند یاد بگیرد که حرکات تطبیقی انجام دهد[۴] یا در یک مسیر به موانع برخورد نکند.

سیستم‌های یادگیری و حافظه[ویرایش]

روبات‌هایی هستند که برای آزمایش تئوری‌های مربوط به سیستم‌های حافظه حیوانات طراحی شده‌اند. در حال حاضر بسیاری از مطالعات، سیستم حافظه ای موش‌ها را به ویژه هیپوکامپوس موش که با place cells در ارتباط است، بررسی می‌کند. این سلول‌ها برای مکان خاصی که یادگیری اتفاق می‌افتد، تحریک می‌شوند.[۵][۶] سیستم‌هایی که هیپوکامپوس موش را مدل می‌کنند، به‌طور کلی قادر به ایجاد نقشه‌های ذهنی از محیط اطراف هستند که این امر به کمک شناخت علائم برجسته ان محیط و نحوه برخورد با آن بر اساس یادگیری انجام می‌شود و به آنها امکان پیش‌بینی علائم و موانع نزدیک را می‌دهد.

مطالعه دیگری یک ربات بر اساس الگوی یادگیری جغد برای جهت‌یابی و مکان‌یابی مبتنی بر محرکهای شنیداری و بصری ایجاد کرده‌است. این فرضیه شامل پلاستیسیته سیناپسی و مدولاسیون نورونی است.[۷] مدولاسیون نورونی اغلب یک اثر شیمیایی است که در آن انتقال دهنده‌های عصبی مانند دوپامین یا سروتونین حساسیت نورون را تحت تأثیر قرار می‌دهند.[۸] روبات مورد استفاده در مطالعه مذکور به اندازه کافی با رفتار جغدها مطابقت داشته‌است.[۹] علاوه بر این تعامل نزدیک بین خروجی سیستم حرکتی و فیدبک شنوایی ثابت کرده‌است که تئوری‌های حس کردن فعال در فرایند یادگیری نقش بسیار حیاتی دارند و همچنین بسیاری از مدل‌های یادگیری شامل این تئوری هستند.

نوروروبات‌هایی برای یادگیری الگوها یا مارپیچ‌های ساده در رابطه با این مطالعات ارائه شده‌است. برخی از مشکلات ارائه شده برای نوروروبات شامل تشخیص نمادها، رنگها یا سایر الگوها و اجرای ساده اعمال مبتنی بر الگوها است. در روباتی که بر اساس رفتار جغد شبیه‌سازی شده بود، روبات برای هدایت خود در محیط باید موقعیت و جهت حرکت را تعیین می‌کرد.

انتخاب عمل و ارزیابی[ویرایش]

مطالعات مربوط به انتخاب عمل با نسبت دادن وزن منفی یا مثبت به یک عمل و نتیجه آن سروکار دارد. نوروروبات‌ها می‌توانند در مطالعه تعاملات اخلاقی استفاده شوند، مانند آزمایش تفکر قدیمی که تعداد افراد موجود در یک قایق نجات از ظرفیت آن بیشتر بوده و یک نفر برای نجات بقیه باید قایق را ترک کند. با این حال، تعداد بیشتری از نورو روبات‌ها در بررسی انتخاب عمل، کارهایی را انجام می‌دادند که با عقیده بسیار ساده مانند حفظ و نجات خود یا حفظ جمعیت روبات‌ها مخالف بودند. این نوروروبات‌ها پس از مدولاسیون نورونی سیناپسها برای تقویت مدارهایی با نتایج مثبت مدل می‌شوند.[۱۰][۱۱] در سیستم‌های بیولوژیکی ، انتقال دهنده‌های عصبی مانند دوپامین یا استیل کولین سیگنال‌های عصبی مفید را تقویت می‌کنند. یک مطالعه از چنین تعامل شامل روبات داروین هفت بود که از حس بینایی، شنیداری و حس چشایی شبیه‌سازی شده به عنوان ورودی برای بلوک‌های فلزی رسانا استفاده می‌کرد. انتخاب تصادفی بلوک‌های خوب از نظر ارزش گذاری، دارای الگوی راه راه بر روی خود بودند هنگامی که بلوک‌های بد یک شکل دایره ای روی خود داشتند. حس چشایی با میزان رسانایی بلوک‌ها شبیه‌سازی می‌شود. روبات با توجه به سطح رسانایی بلوک‌ها، فیدبک‌های مثبت و منفی ای را از مزه آن ارائه می‌دهد. محققان در این آزمایش مشاهده کردند که ربات چگونه رفتارها و عملکردهای انتخابی خود را بر اساس ورودی‌های مختلف، آموخته‌است.[۱۲] مطالعات دیگر از گروه‌هایی از روبات‌های کوچک استفاده کرده‌اند که از باتری‌های پخش شده در اطراف اتاق تغذیه می‌کردند و یافته‌های خود را به سایر روبات‌ها ابلاغ می‌کردند.[۱۳]

ادراک حسی[ویرایش]

نوروروبات‌ها همچنین برای مطالعه درک حسی، به ویژه بینایی استفاده شده‌اند. اینها در اصل سیستمهایی هستند که از تعبیه مدلهای عصبی مربوط به مسیرهای حسی در ماشین‌های خودکار به‌وجود می‌آیند. این روش بر اساس سیگنال‌های حسی است که در طول انجام عمل رخ می‌دهد و همچنین ارزیابی واقعی تری را از میزان مقاوم بودن مدل عصبی امکان‌پذیر می‌کند. واضح است که تغییرات ناشی از فعالیت حرکتی در سیگنالهای حسی، نشانه‌های ادراکی مفیدی را توسط ارگانیسم‌ها فراهم می‌کند که به‌طور گسترده مورد استفاده قرار می‌گیرند. به عنوان مثال، محققان از اطلاعاتی که از حرکات سر و چشم انسان بدست می آید برای ایجاد نمایش مفهوم داری از صحنه بصری استفاده کرده‌اند.[۱۴][۱۵]

روبات‌های بیولوژیکی[ویرایش]

روبات‌های بیولوژیکی در واقع نوروروبات نیستند زیرا در آنها از نظر نورولوژیکی از سیستم هوش مصنوعی برگرفته نشده‌است، بلکه بافتهای عصبی واقعی هستند که به یک ربات وصل می‌شوند. این ربات‌ها از شبکه‌های عصبی کشت شده برای مطالعه رشد مغز یا تعاملات عصبی استفاده می‌کنند. این ربات‌ها به‌طور معمول شامل یک مجموعه عصبی هستند که بر روی یک آرایه چند الکترودی (MEA) قرار گرفته‌اند و قادر به ضبط فعالیت عصبی و تحریک بافت هستند. در بعضی موارد، MEA به رایانه ای متصل می‌شود که محیط شبیه‌سازی شده‌ای را برای بافت مغز ایجاد می‌کند و فعالیت مغز را به صورت یک عمل متناظر با ان فعالیت، شبیه‌سازی می‌کند.[۱۶] توانایی ضبط فعالیت عصبی به محققان امکان استفاده از این داده‌ها را برای آموزش نوروروبات‌ها داده‌است.

بخشی که در ان روبات‌های بیولوژیکی با ان درگیر هستند بحث اخلاق است. سؤالات زیادی دربارهٔ نحوه انجام آزمایش‌هایی دربارهٔ این موضوع مطرح می‌شود. مهمترین سؤال بحث آگاهی است و اینکه آیا مغز موش آن را تجربه می‌کند یا خیر. این بحث به نظریه‌های بسیاری درمورد اینکه آگاهی چیست، می‌رسد.[۱۷][۱۸]

برای اطلاعات بیشتر ببینید: هیبروت، آگاهی

کاربرد در علوم اعصاب[ویرایش]

دانشمندان علوم اعصاب از نوروروباتیک استفادهای زیادی می‌کنند زیرا یک محیط قابل کنترل برای آزمایش نحوه عملکرد مغز فراهم می‌کند. علاوه بر این، چون روبات‌ها نمونه‌های ساده‌تری از سیستم‌هایی هستند که از آنها پیروی می‌کنند، امکان آزمایش‌های بیشتر و بررسی مستقیم در مسائل موجود فراهم می‌شود.[۱۹] علاوه بر این، این مزیت را دارند که در همواره قابل دسترس هستند، در حالی که زیر نظر داشتن بخش‌های گسترده از مغز در حالی که حیوان زنده است، دشوار است و بررسی تک تک نورون‌ها تقریباً امکان‌پذیر نیست.

با توجه به پیشرفت در زمینه علوم اعصاب، روش‌های درمانی متعددی از جمله، روش‌های دارویی و توان بخشی عصبی پدید آمده‌اند.[۲۰] پیشرفت در این حوزه به درک پیچیدگی مغز و نحوه عملکرد دقیق آن بستگی دارد. مطالعه مغز به ویژه در انسان‌ها به دلیل خطر ناشی از جراحی دشوار است؛ بنابراین، استفاده از فناوری بررسی مغز کار بسیار مهمی است. نوروروبات‌ها دقیقاً این وظیفه را انجام می‌دهند و بسیاری از آزمایش‌هایی را پوشش می‌دهند که می‌تواند در مطالعه فرایندهای عصبی منجر به پیشرفت چشم‌گیری شود.

  • فرزاد تات

محاسبات و سیستم‌های عصبی

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۲ ب.ظ

برنامه محاسبات و سیستم‌های عصبی[الف] (سی‌ان‌اس) در سال ۱۹۸۶ در موسسه فناوری کالیفرنیا تأسیس شد. هدف از تأسیس این برنامه، آموزش دانشجویان دوره دکتری علاقه‌مند به بررسی رابطه بین ساختار مدارها/شبکه‌های شبیه نورون و محاسبات انجام شده در چنین سیستم‌هایی، خواه طبیعی یا مصنوعی، هستند. این برنامه برای تقویت تبادل ایده و همکاری مهندسین، علوم اعصاب و نظریه پردازان طراحی شده‌است.

تاریخچه[ویرایش]

در اوایل دهه ۱۹۸۰، با ایجاد مبانی وی‌اِل‌اِس‌آی،[۱] کارور مید[ب] به بررسی شباهت بین محاسبات انجام شده در مغز و نوع محاسباتی که می‌تواند در مدارهای الکترونیکی سیلیکونی آنالوگ انجام شود، علاقه‌مند شد. در راستای گسترش مطالعات خود، مید به جان هاپفیلد پیوست که در زمینه مبانی نظری محاسبات عصبی،[۲] در حال تحصیل بود. اولین دوره مشترک مید و هاپفیلد در این زمینه با عنوان «فیزیک محاسبات» برگزار شد؛ هاپفیلد در مورد کار خود در شبکه‌های عصبی و مید در مورد کار خود در زمینه تکرار ساختارهای عصبی در مدارهای الکترونیکی بسیار یکپارچه تدریس می‌کردند.[۳] با توجه به علاقه دانشجویان و دانشکده‌ها، آنها تصمیم گرفتند تا در سال بعد بر این مضامین گسترش دهند. ریچارد فاینمن به آنها پیوست و سه دوره جداگانه نتیجه گرفت: هاپفیلد در شبکه‌های عصبی، مید در مدارهای آنالوگ عصبی،[۴] و دوره فاینمن دربارهٔ فیزیک محاسبات.[۳][۵] در این مرحله، مید و هاپفیلد فهمیدند که حوزه جدیدی پا به عرصه گذاشته‌است که در آن، دانشمندان اعصاب و افرادی که مدل‌ها و مدارهای رایانه ای را انجام می‌دهند در حال گفتگو هستند.

در پاییز ۱۹۸۶، جان هاپفیلد پیشگام تشکیل یک دوره دکتری بین‌رشته‌ای شد تا سوالاتی که در مورد ارتباط بین عصب‌زیست‌شناسی و مهندسی برق، علوم رایانه و فیزیک به وجود می‌آیند، مورد مطالعه قرار گیرند. این دوره سیستم‌های محاسباتی و عصبی (سی‌ان‌اس) نامیده شد و موضوع وحدت بخش آن، ارتباط بین ساختار فیزیکی یک سیستم محاسباتی (سخت‌افزار فیزیکی یا بیولوژیکی)، پویایی عملکرد آن و نیز مشکلات محاسباتی است که می‌تواند به‌طور مؤثر حل کند. ایجاد این برنامه چند رشته‌ای عمدتاً ناشی از پیشرفت در چندین جبهه است که قبلاً نامرتبط انگاشته می‌شدند: تجزیه و تحلیل سیستم‌های عصبی پیچیده در هر دو سطح تک سلولی و شبکه‌های سلولی[۶] با استفاده از تکنیک‌های مختلف (به ویژه، ضبط گیره پچ[پ]، الکتروفیزیولوژی درون و بین یاخته‌ای یک یا چند سلول ناشی از تکنیک‌های تصویربرداری از مغز حیوانات و تصویربرداری عصبی کارکردی مانند تصویربرداری تشدید مغناطیسی کارکردی)، تجزیه و تحلیل نظری ساختارهای عصبی (علوم اعصاب محاسباتی) و مدل‌سازی شبکه‌های عصبی مصنوعی برای اهداف مهندسی.[۲] این برنامه با تعداد کمی از دانشکده‌های موجود در بخش‌های مختلف آغاز شد. کارور مید، جان هاپفیلد، دیوید ون اسن[ت] جفری فاکس[ث]، جیمز باوور[ج]، مارک کونیشی[چ]، جان آلمان[ح]، اد پوزنر و دمیتری سوالتیس[خ] حضور داشتند. اولین استاد خارجی، کریستوف کخ، در آن سال استخدام شد.

از سال ۱۹۹۰، به حدود ۱۱۰ دانشجوی تحصیلات تکمیلی مدرک دکترا و به ۱۴ دانشجو، مدرک کارشناسی ارشد در سی‌ان‌اس اعطا شده‌است. حدود دو سوم از فارغ التحصیلان سی‌ان‌اس مشاغل دانشگاهی را دنبال کردند و بقیه فارغ التحصیلان یا خود شرکت‌های نوپا ایجاد کردند یا به شرکت‌های نوپا پیوستند. در این مدت، میانگین مدت دوره دکترا ۵٫۶ سال بوده‌است.

در این مدت، مأمورین اجرایی برنامه سی‌ان‌اس عبارت بودند از: جان هاپفیلد، دمیتری سوالتیس، کریستوف کخ و پیترو پرونا.

همایش‌ها و کارگاه‌های مرتبط[ویرایش]

فارغ‌التحصیلان سی‌ان‌اس تعدادی کنفرانس و کارگاه آموزشی را به تنهایی یا با دیگران تأسیس کرده‌اند:

برنامه‌های دانشگاهی مرتبط[ویرایش]

فارغ التحصیلان برجسته[ویرایش]

  • فرزاد تات

رایانه شناختی

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۱ ب.ظ

رایانه شناختی ترکیبی از هوش‌مصنوعی و الگوریتم‌های ماشین است که برای پیروی از کاراهای انسان ساخته شده است. این روش به طور کلی یک رویکرد مهندسی معکوس را اتخاذ می‌کند. مثالی از یک رایانه شناختی با استفاده از شبکه‌های عصبی و یادگیری عمیق توسط ماشین واتسون کمپانی IBM تامین می‌شود. توسعه بعدی IBM، معماری میکرو تراشه TrueNorth است که برای نزدیک‌تر شدن به ساختار مغز انسان از معماری فون نیومن استفاده می‌شود که در رایانه‌های متعارف مورد استفاده قرار می‌گیرد.

  • فرزاد تات

شتاب‌دهنده هوش مصنوعی

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۵:۰۰ ب.ظ

شتاب‌دهنده هوش مصنوعی (به انگلیسی: AI accelerator) یک کلاس از شتاب‌دهنده‌های سخت‌افزاری[۱] یا سیستم کامپیوتری[۲][۳]است که برای شتاب دهندگی به برنامه‌های هوش مصنوعی و یادگیری ماشین، از جمله شبکه‌های عصبی مصنوعی و بینایی ماشین طراحی شده‌است. برنامه‌های کاربردی معمولی شامل الگوریتم‌هایی برای رباتیک، اینترنت اشیا، و سایر وظایف مبتنی بر داده یا حسگر است.[۴] این برنامه‌ها اغلب طرح‌های چند هسته‌ای هستند و عموماً روی محاسبات با دقت پایین ، معماری‌های جدید جریان داده یا قابلیت محاسبات درون حافظه تمرکز می‌کنند. تا به امروز، سال ۲۰۱۸، یک تراشه مدار مجتمع هوش مصنوعی عادی حاوی میلیاردها ترانزیستور ماسفت است.[۵] چندین اصطلاح خاص تجاری برای دستگاه‌های این گروه به کار می‌رود و این فناوری، یک فناوری نوظهور بدون طراحی فراگیر است.

تاریخ[ویرایش]

سیستم‌های رایانه‌ای اغلب واحد پردازش مرکزی را با شتاب‌دهنده‌های ویژه برای کارهای تخصصی تکمیل می‌کنند که به عنوان کمک پردازنده شناخته می‌شوند. واحدهای سخت‌افزاری ویژه برنامه کاربردی شامل کارت‌های گرافیکی، کارت‌های صدا، واحدهای پردازش گرافیکی و پردازنده‌های سیگنال دیجیتال هستند. همان‌طور که در دهه ۲۰۱۰ کاربردهای یادگیری عمیق و هوش مصنوعی افزایش یافت، واحدهای سخت‌افزاری تخصیص یافته نیز از محصولات موجود توسعه یافتند تا به اعمال این الگوریتم‌ها شتاب دهند

تلاش‌های ابتدایی[ویرایش]

اولین طراحی‌ها مانند ETANN 80170NX[۶] از شرکت اینتل، مدارهای آنالوگ را برای محاسبه توابع عصبی دخیل کرده بودند. نمونه دیگری از تراشه‌های این گروه، ANNA است که یک شتاب‌دهنده شبکه عصبی CMOS است که توسط یان لی کان توسعه یافته‌است.[۷] بعداً نیز تمام تراشه‌های دیجیتال مانند Nestor/Intel Ni1000 از این تراشه الگو برداری کردند.

در اوایل سال ۱۹۹۳، پردازنده‌های سیگنال دیجیتال در زمینه‌هایی مانند سرعت بخشیدن به نرم‌افزار تشخیص کاراکتر نوری، به عنوان شتاب‌دهنده شبکه عصبی، مورد استفاده قرار گرفتند.[۸]

در دهه ۱۹۹۰ نیز تلاش‌هایی برای ایجاد سیستم‌های موازی با توان عملیاتی بالا برای محیط‌های کاری با هدف کاربردهای گوناگون از جمله شبیه‌سازی شبکه‌های عصبی صورت گرفت.[۹][۱۰] شتاب‌دهنده‌های با مبنای FPGA نیز نخستین بار در دهه ۱۹۹۰ برای استدلال و استنباط[۱۱] و آموزش مورد بررسی قرار گرفتند. گوشی‌های هوشمند نیز شروع به توسعه شتاب‌دهنده‌های هوش مصنوعی کردند که اولین نمونه آن کوالکام Snapdragon 820 بود که در سال ۲۰۱۵ میلادی طراحی شد.[۱۲][۱۳]

محاسبات ناهمگن[ویرایش]

محاسبات ناهمگن به معنی ترکیب تعدادی پردازنده تخصیص یافته در یک سیستم یا حتی یک تراشه واحد است که هر یک برای وظیفهٔ خاصی طراحی شده‌اند. معماری‌هایی مانند ریزپردازنده سلولی[۱۴] دارای خصوصیاتی هستند که دارای اشتراک‌های زیادی با شتاب‌دهنده‌های هوش مصنوعی هستند، از جمله: پشتیبانی از محاسبات با دقت محدود، معماری جریان داده، و اولویت دادن به «نتیجه» بر زمان مورد نیاز. ریزپردازنده سلولی بعداً برای تعدادی از وظایف[۱۵] از جمله هوش مصنوعی به کار گرفته شدند.[۱۶]

در دهه ۲۰۰۰، واحدهای پردازش مرکزی همچنان واحدهای SIMD گسترده‌تری را به دست آوردند که ناشی از کاربردشان در ویدئو و بازی و پشتیبانی از انواع داده‌های ساختار یافته با دقت پایین بود.[۱۷]

به دلیل افزایش کارایی واحدهای پردازش مرکزی، از آنها برای انجام وظایف الگوریتم‌های هوش مصنوعی نیز استفاده می‌شود. پردازنده‌های مرکزی برای DNNهای با موازی‌سازی در مقیاس کوچک یا متوسط نسبت به DNNهای پراکنده و در طراحی‌های با حجم کم، برتر هستند.

استفاده از GPU[ویرایش]

واحدهای پردازش گرافیکی یا GPUها، سخت‌افزارهای تخصیص یافته‌ای برای اعمال تغییرات بر روی تصاویر و محاسبه خصوصیات تصاویر هستند. اساس ریاضی شبکه‌های عصبی و الگوریتم‌های تغییر تصاویر، اعمال مشابه و مستقلاً موازی ای شامل ماتریس‌ها هستند که باعث شده‌اند پردازنده‌های گرافیکی به‌طور روزافزون برای راه اندازی الگوریتم‌های یادگیری ماشین استفاده شوند.[۱۸][۱۹][۲۰]

تا به امروز، سال ۲۰۱۶، واحدهای پردازش گرافیکی برای راه اندازی الگوریتم‌های هوش مصنوعی محبوب هستند و به تکامل خود ادامه می‌دهند تا یادگیری عمیق را، هم برای آموزش[۲۱] و هم برای استنباط در دستگاه‌هایی مانند ماشین‌های خودران، مجهزتر کنند.[۲۲] توسعه دهندگان GPUها مانند Nvidia NVLink، در حال توسعه توانایی اتصال این سخت‌افزارها به جریان داده‌هایی هستند که الگوریتم‌های هوش مصنوعی از آن بهره می‌برند.[۲۳] از آنجایی که واحدهای پردازش گرافیکی به‌طور روزافزون در شتاب دهندگی به الگوریتم‌های هوش مصنوعی به کار می‌روند، تولیدکنندگان واحدهای پردازش گرافیکی، سخت‌افزارهایی تخصیص یافته برای شبکه‌های عصبی مصنوعی را برای سرعت بخشیدن بیشتر به این الگوریتم‌ها در نظر گرفته‌اند.[۲۴][۲۵] هسته‌های تانسوری برای سرعت بخشیدن به آموزش شبکه‌های عصبی در نظر گرفته شده‌اند.[۲۵]

بکارگیری FPGA[ویرایش]

محیط‌های کاری یادگیری عمیق همچنان در حال تکامل و رشد هستند که باعث سخت شدن طراحی سخت‌افزارهای تخصیص یافته شده‌است. دستگاه‌های با قابلیت تنظیم مجدد مانند آرایه‌های دروازه قابل برنامه‌ریزی میدانی (FPGA)، تکامل سخت‌افزارها، محیط‌های کاری و نرم‌افزارها را در کنار یکدیگر آسان‌تر می‌کنند.[۲۶][۱۱][۲۷]

شرکت مایکروسافت نیز از تراشه‌های FPGA برای سرعت بخشیدن استنتاج بهره برده‌است.[۲۸]

ظهور شتاب‌دهنده‌های تخصیص یافتهٔ هوش مصنوعی[ویرایش]

با اینکه که واحدهای پردازش گرافیکی و FPGA برای وظایف مرتبط با هوش مصنوعی عملکرد بسیار بهتری نسبت به CPUها دارند، اما همچنان ممکن است با طراحی‌های خاص تر بازدهی ای تا ۱۰ برابر[۲۹][۳۰] از طریق یک مدار مجتمع مختص برنامه یا ASIC به دست آید.[نیازمند منبع]این شتاب‌دهنده‌ها از رویکردهایی مانند استفاده بهینه از حافظه[نیازمند منبع] یا انجام محاسبات با دقت محدودتر برای افزایش سرعت و توان عملیاتی محاسبات بهره می‌برند.[۳۱] برخی از چارچوب‌های ممیز شناور که با شتاب دهندگی هوش مصنوعی با دقت پایین استفاده می‌کنند، نیم-دقت و ممیز شناور bfloat16 هستند.[۳۲][۳۳][۳۴][۳۵][۳۶] شرکت‌هایی مانند گوگل، کوالکام، آمازون، اپل، فیس بوک، AMD و سامسونگ همگی در حال طراحی AI ASIC خود هستند.[۳۷][۳۸][۳۹][۴۰][۴۱][۴۲]

معماری‌های محاسباتی درون حافظه ای[ویرایش]

در ژوئن ۲۰۱۷، پژوهشگران آی‌بی‌ام معماری ای را بر خلاف معماری فون نیومن معرفی کردند که متکی بر محاسبات درون حافظه ای و آرایه‌های حافظهٔ تغییر فاز دهنده است که برای تشخیص همبستگی زمانی اعمال می‌شود و قصد توسعه رویکرد محاسبات ناهمگن و سیستم‌های موازی حجیم را دارند.[۴۳]

همچنین در اکتبر ۲۰۱۸، محققان IBM معماری ای متکی بر پردازش درون حافظه ای و مدل‌سازی شده از شبکه سیناپسی مغز انسان را برای شتاب دهندگی به شبکه‌های عصبی عمیق معرفی کردند.[۴۴] این سیستم بر اساس آرایه‌های حافظهٔ تغییر فاز دهنده است.

محاسبات درون حافظه ای با حافظه‌های مقاومتی آنالوگ[ویرایش]

در سال ۲۰۱۹، محققان از مؤسسه Politecnico di Milano راه حلی از طریق یک عملیات واحد برای حل سیستم‌های معادلات خطی در چند ده نانوثانیه یافتند. الگوریتم آنها متکی بر محاسبات درون حافظه ای با حافظه‌های مقاومتی آنالوگ بود که از طریق محاسبه ضرب ماتریس-بردار در یک گام با استفاده از قانون اهم و قانون کیرشهوف، کار می‌کرد که بازدهی بالایی در زمان و انرژی داشت.

پژوهشگران نشان دادند که یک مدار بازخوردی با حافظه‌های مقاومتی نقطه متقاطع می‌تواند مسائل جبری مانند سیستم‌های معادلات خطی، بردارهای ویژه ماتریس و معادلات دیفرانسیل را تنها در یک گام حل کند. چنین رویکردی زمان مورد نیاز برای محاسبات را در مقایسه با الگوریتم‌های دیجیتال به طرز چشم‌گیری کاهش می‌دهد.[۴۵]

نیمه رساناهای نازک اتمی[ویرایش]

در سال ۲۰۲۰ میلادی، Marega و همکارانش. آزمایش‌هایی را با یک ماده تونل فعال با مساحت بزرگ برای توسعه دستگاه‌ها و مدارهای منطقی در حافظه بر اساس ترانزیستورهای اثر میدانی دروازه شناور (FGFET) معرفی کردند.[۴۶] چنین نیمه رساناهای نازک اتمی ای برای برنامه‌های پرکاربرد یادگیری ماشینی با انرژی کارا مورد استفاده قرار می‌گیرند، جایی که ساختار اصلی دستگاه برای عملیات منطقی و ذخیره داده‌ها استفاده می‌شود. این پژوهشگران مواد دو بعدی مانند دی سولفید مولیبدن که نیمه رسانا است را به کار گرفتند.[۴۶]

هسته مجتمع تانسور فوتونیک[ویرایش]

در سال ۲۰۲۱ میلادی، J. Feldmann و همکارانش، یک شتاب‌دهنده سخت‌افزاری فوتونیک مجتمع برای پردازش کانولوشنی موازی ارائه کردند.[۴۷] نویسندگان دو مزیت کلیدی فوتونیک مجتمع را نسبت به همتایان الکترونیکی آن مورد بررسی قرار دادند که آنها عبارتند از: (۱) انتقال انبوه داده موازی از طریق مالتی پلکسی تقسیم طول موج در ترکیب با شانه‌های فرکانسی، و (۲) سرعت تلفیق بسیار بالای داده‌ها.[۴۷] سیستم آن‌ها می‌تواند تریلیون‌ها عملیات انباشته چند برابری را در ثانیه پردازش کند که نشان‌دهنده پتانسیل فوتونیک مجتمع در برنامه‌های کاربردی هوش مصنوعی با داده‌های حجیم است.[۴۷]

نامگذاری[ویرایش]

از سال ۲۰۱۶ میلادی، این زمینه هنوز در جریان است و فروشندگان، اصطلاح تجاری خود را برای معادل «شتاب‌دهنده هوش مصنوعی» مطرح می‌کنند، به این امید که طرح‌ها و API‌هایشان به طرح غالب در این زمینه تبدیل شود. با وجود آنکه هیچ نقطه نظر مشترکی در مورد مرز بین این دستگاه‌ها و همچنین شکل دقیق آنها وجود ندارد، اما چندین نمونه به جهت پر کردن این فضای جدید، با مقدار قابل توجهی از همپوشانی در قابلیت‌ها، اختصاص یافته‌اند.

در نهایت، زمانی که شتاب‌دهنده‌های گرافیکی مصرف‌کننده روی کار آمدند، صنعت در نهایت اصطلاح به کار برده شده توسط شرکت Nvidia، یعنی "GPU"[۴۸] را به عنوان اسم جمع برای «شتاب‌دهنده‌های گرافیکی» سط Direct3D، شکل‌های مختلفی به خود گرفته بود.

کاربردهای بالقوه[ویرایش]

جستارهای وابسته[ویرایش]

  • فرزاد تات

مغز مصنوعی

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۴:۵۹ ب.ظ

مغز مصنوعی (یا ذهن مصنوعی) یک نرم‌افزار یا سخت‌افزار همراه با توانایی‌های شناختی شبیه به مغز حیوان یا انسان است.[۱][۲]

تحقیقات در زمینه «مغز مصنوعی» و شبیه‌سازی مغز سه نقش مهم در علم دارد:

  1. شناخت علوم اعصاب، تلاش متخصصین اعصاب برای فهمیدن طریقهٔ کار کردن مغز انسان است.[۳]
  2. طبق تجربهٔ فلسفهٔ هوش مصنوعی، ایجاد یک ماشین که توانایی‌های انسان را داشته باشد، وجود دارد.
  3. یک پروژه بلند مدت برای ایجاد ماشین‌های نمایش رفتار مشابه با حیوانات با سیستم عصبی پیچیده مرکزی مانند پستانداران و به ویژه انسان است. هدف نهایی ایجاد یک دستگاه نشانگر رفتار یا همانند هوش انسان هوش عمومی مصنوعی قوی نامیده می‌شود.

یک مثال از مورد اول این است که محققان در دانشگاه استون بیرمنگام انگلستان[۴] با استفاده از سلول‌های بیولوژیک و ایجاد خوشه‌های عصبی به درمان‌های جدیدی نورون حرکتی آلزایمر، و بیماری پارکینسونراه یافتند.

اتاق چینی جان سرل، انتقاد هیبرت دریفوس از AI یا بحث راجر پنروه در ذهن جدید امپراتور است. این منتقدان ادعا می‌کنند ماشین‌ها نمی‌توانند آگاهی‌ها و دانش‌های انسان را شبیه‌سازی کنند. یک پاسخ به استدلال‌های آنها این است که فرایندهای بیولوژیکی داخل مغز می‌تواند به هر درجه دقت شبیه‌سازی شود. این پاسخ در اوایل سال ۱۹۵۰ توسط آلن تورینگ در مقاله کلاسیک «ماشین محاسبات و اطلاعات» ساخته شده‌است.[۵]

محققان مورد سوم را به‌طور کلی به عنوان هوش عمومی مصنوعی می‌شناسند. با این حال، ری کورزوییل اصطلاح "قوی AI" را ترجیح می‌دهد. در کتاب خود The Singularity is Near، او با استفاده از کامپیوترهای معمولی به عنوان وسیله برای پیاده‌سازی مغزهای مصنوعی (هوش مصنوعی) بر روی شبیه‌سازی کل مغز تمرکز کرده‌است و ادعا می‌کند که اگر به این ترتیب که قدرت کامپیوتر با روند رشد انبساطی ادامه میابد، شبیه‌سازی مغز انسان روی کامپیوتر تا ۲۰۲۵ می‌تواند انجام شود. هنری مارکرام، مدیر پروژه "مغز آبی " (که در حال تلاش برای شبیه‌سازی مغز است)، ادعای مشابهی در سال ۲۰۲۰ در کنفرانس TED آکسفورد در سال ۲۰۰۹ مطرح کرد.[۱]

روش‌های شبیه‌سازی مغز[ویرایش]

برآورد اینکه چقدر قدرت پردازش برای تقلید از یک مغز انسان در سطوح مختلف (از ری کورزویل و آندرس ساندبرگ و نیک بوسترم)، همراه با سریعترین ابر رایانه ای از TOP500، توسط نقشه‌های سالیانه مورد نیاز است.

روش‌های دیگری علاوه بر رویکرد رایج تقلید مستقیم مغز انسان با استفاده از شبکه‌های عصبی مصنوعی بر یک موتور محاسباتی با کارایی بالا[۶] وجود دارد. اجرای یک جایگزین مصنوعی مغز می‌تواند بر اساس اصول هماهنگی / عدم انسجام فاز غیر خطی فناوری نانو هولوگرافی (HNeT) باشد. این قیاس با پردازش‌های کوانتومی از طریق الگوریتم سیناپسی هسته ای که دارای شباهت زیادی با معادله موج مکانیکی کوانتومی دارد، ساخته شده‌است[۷] EvBrain یک نرم‌افزار تکاملی است که توانایی این را دارد که بلافاصله شبکه‌های عصبی مغزی را مثل شبکه توسعه دهد.

آی بی ام کمک هزینه ۴٬۹ میلیون دلاری از پنتاگون برای تحقیق در زمینه ایجاد رایانه‌های هوشمند در نوامبر ۲۰۰۸ دریافت کرد پروژه Brain Blue با کمک IBM در لوزان[۸] انجام شد. این پروژه بر این فرض استوار است که ایجاد مصنوعی نورون‌ها در رایانه با قرار دادن سی میلیون سیناپس در موقعیت سه بعدی امکان‌پذیر است.

برخی از طرفداران هوش مصنوعی قوی این باورند که کامپیوترهای مربوط به مغز آبی و روح جالب ممکن است حدود سال ۲۰۱۵ از ظرفیت فکری انسان تجاوز کنند ما احتمالاً حدود سال ۲۰۵۰می‌توانیم مغز انسان[۹] را دانلود کنیم

در حالی که مغز آبی می‌تواند ارتباطات عصبی پیچیده را در مقیاس بزرگ نشان دهد ولی ارتباط بین فعالیت مغز و رفتارهای مغز را نشان نمی‌دهد و این خواسته را برآورده نمی‌کند. در سال ۲۰۱۲، پروژه Spaun (شبکه یکپارچه معماری اشاره گر معنایی) تلاش کرد تا قسمت‌های مختلف مغز انسان را از طریق نمایندگی‌های گسترده‌ای از ارتباطات عصبی مدل‌سازی نماید که علاوه بر نقشه‌برداری، رفتارهای پیچیده‌ای نیز ایجاد می‌کند.[۱۰]

طراحی Spaun عناصر آناتومی مغز انسان را بازسازی کرد. این مدل شامل تقریباً ۲٫۵ میلیون نورون می‌باشد که این نورون‌ها ویژگی‌هایی از جمله قوزک‌های بصری و حرکتی، اتصالات GABAergic و dopaminergic، منطقه قاعده شکمی (VTA), substantia nigra دارند. این طراحی به گونه ای است که چندین تابع می‌توانند با استفاده از دیده‌ها و حروف دست نوشته شده و کارهایی که به کمک بازوهای مکانیکی انجام می‌شوند به هشت کار متفاوت پاسخ بدهند. توابع Spaun شامل کپی نقاشی، شناسایی تصاویر و شمارش است.

دلایل خوبی برای باور داشتن وجود دارد که، صرف نظر از استراتژی پیاده‌سازی، پیش‌بینی‌های انجام مغز مصنوعی در آینده نزدیک خوشبین هستند. [نیازمند منبع] به ویژه مغز (از جمله مغز انسان) و شناخت در حال حاضر به خوبی درک نمی‌شود، و مقیاس محاسبات مورد نیاز ناشناخته است. یکی دیگر از محدودیت‌های نزدیک مدت این است که تمام رویکردهای فعلی برای شبیه‌سازی مغز نیاز به سفارش مصرف انرژی بزرگتری نسبت به مغز انسان دارد. مغز انسان حدود ۲۰ را مصرف می‌کند W از قدرت در حالی که ابر رایانه‌های فعلی ممکن است تا مقدار ۱ استفاده کنید MW یا سفارش ۱۰۰٬۰۰۰ بیشتر. [نیازمند منبع]

آزمایش مغز هوش مصنوعی[ویرایش]

بعضی از منتقدان شبیه‌سازی مغز[۱۱] بر این باورند که به وجود آوردن مستقیم هوش بدون تقلیدکردن از طبیعت هوش ساده‌تر است. قضیهٔ فوق یعنی طراحی مستقیم هوش به برخی از مفسران[۱۰] کمک کرده است و منجر به تلاش‌های اولیه برای ساخت ماشین‌های پروازی شده است؛ اما این هواپیمای مدرن مانند پرندگان به نظر نمی‌آید.

 

  • فرزاد تات

مهندسی نورومورفیک (neuromorphic)

فرزاد تات | سه شنبه, ۲۲ اسفند ۱۴۰۲، ۰۴:۵۳ ب.ظ

مهندسی نورومورفیک (neuromorphic) یا به اختصار نورومورفیک که «محاسبات عصبی» نیز نامیده می‌شود، مفهومی است که در اواخر دهه ۱۹۸۰ توسط کارور مید (Carver Mead) توسعه یافته و به معنی استفاده از سیستم‌های مجتمع سازی در مقیاس بسیار بزرگ (VLSI) حاوی مدارهای آنالوگ الکترونیکی، برای تقلید (شبیه‌سازی) معماری عصبی و بیولوژیکی موجود در سیستم عصبی است.[۱][۲]

در حال حاضر، اصطلاح نورومورفیک برای توصیف سیستم‌های آنالوگ، دیجیتال، سیستم‌های مختلط آنالوگ / دیجیتال و نرم‌افزارهایی که سیستم‌های عصبی را مدل‌سازی می‌کنند، به کار می‌رود. اجرای محاسبات عصبی در سطح سخت‌افزار را می‌توان با ممریستورهای مبتنی بر اکسید (oxide-based memristors)، ممریستورهای اسپینترونیک (spintronic memories)، سوئیچ‌های آستانه‌ای (threshold switches) و ترانزیستورها، تحقق بخشید.[۳]

جنبه اصلی مهندسی نورومورفیک درک چگونگی مورفولوژی نورون‌های ویژه، مدارها، برنامه‌ها و معماری‌های همه‌جانبه محاسبات مدنظر را ایجاد می‌کند، بر نحوه ارائه اطلاعات و بر استحکام در برابر آسیب‌ها تأثیر می‌گذارد، یادگیری و توسعه را ترکیب می‌کند، سازگاری با تغییرات محلی (انعطاف‌پذیری)، و تغییر تکاملی را آسان می‌کند.

مهندسی نورومورفیک مبحثی میان رشته‌ای است که از زیست‌شناسی، فیزیک، ریاضیات، علوم کامپیوتر و مهندسی الکترونیک ایده می‌گیرد تا سیستم‌های عصبی مصنوعی مانند سیستم‌های بینایی، سیستم‌های سر-چشم، پردازنده‌های شنوایی و روبات‌های خودمختار را طراحی کند که معماری فیزیکی و اصول طراحی آن مبتنی بر اصول سیستم عصبی بیولوژیکی است.

مثال‌ها:

در اوایل سال ۲۰۰۶، محققان در جورجیا تکنولوژی یک میدان برنامه پذیر آرایه عصبی را منتشر کردند.

ایده‌گیری از مغز[ویرایش]

مهندسی نورومورفیک به دلیل ایده‌هایی که از دانش‌مان در مورد ساختار و عملکرد مغز می‌گیرد، برجسته می‌شود. مهندسی نورومورفیک آنچه را که در مورد عملکرد مغز می‌دانیم به سیستم‌های کامپیوتری ترجمه می‌کند. کار در این زمینه بیشتر بر روی تکرار ماهیت آنالوگ محاسبات زیستی و نقش نورون‌ها در شناخت متمرکز شده‌است.

فرایند زیستی نورونها و سیناپس‌های آن‌ها بسیار پیچیده‌اند، و در نتیجه شبیه‌سازی مصنوعی آن‌ها بسیار مشکل است. یک ویژگی کلیدی مغزهای زیستی این است که تمام پردازش‌ها در نورون‌ها از سیگنال‌های شیمیایی آنالوگ استفاده می‌کنند. این امر ساختن مغز در کامپیوتر را دشوار می‌سازد چرا که نسل فعلی کامپیوترها کاملاً دیجیتال هستند. با این‌حال، ویژگی‌های این بخش‌ها را می‌توان به توابع ریاضی که تقریباً جوهرهٔ عملیات نورون را دریافت می‌کنند، خلاصه کرد.

هدف محاسبات نوروموفیک این نیست که تمام و کمال از مغز و تمام عملکردهای آن تقلید کند، بلکه هدف آن این است که آنچه در مورد ساختار و عملکرد مغز می‌دانیم را استخراج کند تا از آن در سیستم‌های کامپیوتری کاربردی استفاده شود. هیچ سیستم نوروموفیکی ادعا یا تلاش نخواهد کرد که تمام عناصر نورون‌ها و سیناپس‌ها را شبیه‌سازی کند، اما همه آن‌ها به این ایده پایبندند که محاسبات در یک سری عناصر محاسباتی کوچک، شبیه به یک نورون، توزیع شوند.

ملاحظات اخلاقی[ویرایش]

با وجود این‌که مفهوم بین‌رشته‌ای مهندسی نورومورفیک نسبتاً جدید است، بسیاری از ملاحظات اخلاقی که درمورد ماشین‌های انسان‌نما و هوش مصنوعی وجود دارند، در مورد سیستم‌های نوروموفیک هم صادق‌اند. با این‌حال، این نکته که سیستم‌های نوروموفیک برای تقلید از مغز انسان طراحی شده‌اند، سوالات اخلاقی منحصر به فردی را در پیرامون استفاده از آن‌ها ایجاد می‌کند.

البته بحث پیرامون این موضوع این است که سخت‌افزار نورومورفیک همچون «شبکه‌های عصبی» مصنوعی مدل‌های بسیار ساده شده‌ای از چگونگی پردازش اطلاعات و عملکرد مغز هستند و در مقایسه با مغز از نظر اندازه و تکنولوژی عملکردی، پیچیدگی بسیار پایین‌تر و از نظر اتصالات، ساختاری بسیار منظم‌تری دارند. مقایسهٔ تراشه‌های نورومورفیک با مغز، مقایسه‌ای بسیار ناپخته است: همچون مقایسهٔ یک هواپیما با یک پرنده، صرفاً به دلیل این که هر دو بال و دم دارند. واقعیت این است که بازده تبدیل انرژی و محاسبهٔ سیستم‌های شناختی عصبی چندین برابر بهتر از آخرین فناوری‌های هوش مصنوعی است و مهندسی نوروموفیک تلاش می‌کند با الهام‌گیری از مکانیزم مغز این اختلاف را کاهش دهد.

نگرانی‌های دموکراتیک[ویرایش]

محدودیت‌های اخلاقی بسیاری ممکن است به دلیل درک عمومی بر مهندسی نورومورفیک اعمال گردد.[۴] Eurobarometer ویژهٔ ۳۸۲: نگرش عمومی نسبت به روبات‌ها، یک نظرسنجی که توسط کمیسیون اروپا انجام شد، نشان داد که ۶۰٪ از شهروندان اتحادیه اروپا خواهان ممنوعیت استفاده از روبات‌ها برای مراقبت از کودکان، سالمندان و معلومان هستند. همچنین، ۳۴٪ موافق ممنوعیت استفاده از روبات‌ها در آموزش، ۲۷٪ در مراقبت‌های بهداشتی و ۲۰٪ در مسائل تفریحی و فراغت بودند. این گزارش به نگرانی‌های فزاینده‌ای پیرامون روبات‌هایی اشاره می‌کند که می‌توانند عملکرد انسان را تقلید یا تکرار کنند. مهندسی نورومورفیک، بنابر تعریف، طراحی شده‌است تا عملکردهای مغز انسان را تکرار کند.[۵]

به احتمال زیاد، نگرانی‌های دموکراتیک پیرامون مهندسی نورومورفیک در آینده حتی عمیق‌تر هم خواهند شد. کمیسیون اروپا دریافت که که شهروندان اتحادیهٔ اروپا که بین ۱۵ تا ۲۴ سال دارند، در مقایسه با شهروندان بالای ۵۵ سال بیش‌تر امکان دارد روبات‌ها را به شکل روبات‌های انسان‌گونه (و نه ابزارگونه) تصور کنند. هنگامی که به این افراد تصویری از یک روبات انسان‌گونه نشان داده شد، ۷۵٪ شهروندان اتحادیهٔ اروپا که در سنین ۱۵ تا ۲۴ سال بودند بیان کردند که تصویر مورد نظر با تصور آن‌ها از روبات‌ها مطابقت دارد؛ در حالی که تنها ۵۷٪ از شهروندانی که بالای ۵۵ سال داشتند چنین پاسخی دادند؛ بنابراین، ماهیت انسان‌گونهٔ سیستم‌های نورومورفیک ممکن است آن‌ها را در دسته روبات‌هایی قرار دهد که بسیاری از شهروندان اتحادیهٔ اروپا خواهان ممنوعیت آن‌ها در آینده باشند.[۵]

تشخص[ویرایش]

با پیشرفت فزایندهٔ سیستم‌های نورومورفیک، برخی از محققان از اعطای حقوق تشخص به این سیستم‌ها دفاع کرده‌اند. اگر مغز آن چیزی است که به انسان‌ها تشخص می‌دهد، یک سیستم نورومورفیک باید تا چه حد از مغز انسان تقلید کند تا حقوق تشخص به آن اعطا شود؟ منتقدان توسعه فناوری در پروژهٔ مغز انسان، که هدف آن پیشرفت محاسبات الهام گرفته از مغز است، استدلال کرده‌اند که پیشرفت در محاسبات نورومورفیک می‌تواند منجر به خودآگاهی ماشینی یا تشخص شود.[۶] منتقدان استدلال می‌کنند که اگر قرار است با این سیستم‌ها مانند انسان‌ها رفتار شود، پس بسیاری از اعمالی که انسان‌ها با استفاده از سیستم‌های نورومورفیک انجام می‌دهند، از جمله عمل پایان دادن به سیستم‌های نورومورفیک، ممکن است از نظر اخلاقی ناروا باشند چرا که این اعمال خودمختاری سیستم‌های نورومورفیک را نقض می‌کنند.[۷]

استفادهٔ دوگانه (کاربردهای نظامی)[ویرایش]

مرکز هوش مصنوعی مشترک، یک شاخه از ارتش ایالات متحدهٔ آمریکا، مرکزی است که به تهیه و پیاده‌سازی نرم‌افزار هوش مصنوعی و سخت‌افزار نورومورفیک برای استفادهٔ رزمی اختصاص دارد. کاربردهای خاص آن، هدست/ عینک‌های هوشمند و روبات‌ها را شامل می‌شود. این مرکز قصد دارد که با تکیه بر فناوری نورومورفیک، «هر جنگنده، هر تیرانداز» را در شبکه‌ای از واحدهای مجهز به نورومورفیک متصل کند.

جستارهای وابسته[ویرایش]

شتاب‌دهنده هوش مصنوعی

مغز مصنوعی

رایانه شناختی

محاسبات و سیستم‌های عصبی

نوروروباتیک

شار نوری

  • فرزاد تات