شبکه‌ های عصبی با الهام از ساختار مغز، فراسوی عملکردهای انسانی می‌روند (قسمت پنجم)

شبکه‌ های عصبی با الهام از ساختار مغز، فراسوی عملکردهای انسانی می‌روند (قسمت پنجم)

شبکه‌های عصبی که حوزه‌ای نسبتا نوظهور به حساب می‌آید، توانسته پیشرفت‌های چشمگیری داشته باشد و این رویای جاه‌طلبانه وجود دارد که فراسوی عملکرد انسانی برود، همانطور که در برخی زمینه‌ها به این مهم دست یافته است.

یک هدف آرمانی: یادگیری انرژی-کارآمد

مفهوم نزدیک به مفهوم نمونه-کارآمد، بهره‌وری یا کارآمدی انرژی است. سیستم‌های یادگیری عمیقی که روی سخت افزارهای با کارایی بالا کار می‌کنند، از نظر انرژی، ناکارآمد هستند و برای کارکرد، به مقادیر بزرگ توان نیاز دارند. به عنوان مثال، اگر برای انجام یک وظیفه‌‌ی پیچیده‌ی محاسباتی از چندین واحد GPU به طور موازی استفاده کنید، به راحتی بیش از یک کیلووات توان استفاده می‌شود. از طرفی، مغز انسان برای عملکرد خود، به سختی به بیست وات نیاز دارد که بسیار کمتر از توان مورد نیاز یک لامپ است. نکته دیگر این است که مغز انسان اغلب، محاسبات دقیق را دقیقاً انجام نمی‌دهد، بلکه تخمین‌های ساده‌ای می‌زند که در بسیاری از موارد، کافی است. این امر نشان می‌دهد که گاهی اوقات، کارآمدی انرژی می‌تواند در معماری‌هایی یافت شود که بر تعمیم بیش از دقت، تاکید می‌کنند.

اخیرا چند الگوریتم‌ توسعه یافته‌اند که دقت را در محاسبات برای کارآمدی بهبودیافته‌ی توان محاسبات، سبک‌سنگین می‌کنند. همچنین برخی از این روش‌ها تعمیم بهبودیافته را به دلیل اثرات نویز محاسبات با دقت  کم نشان می‌دهند. پژوهش‌ها، روش‌هایی برای استفاده از اوزان دودویی به منظور انجام محاسبات کارآمد پیشنهاد می‌کنند. معلوم شده انواع خاصی از شبکه‌های عصبی که شامل نورون های اسپایکی (spiking neurons) هستند، به لحاظ انرژی، کارآمدترند. مفهوم نورون‌های اسپایکی، مستقیماً مبتنی بر مدل زیستی مغز پستانداران است. ایده اصلی این است که نورون‌ها در هر چرخه‌ی انتشار، شلیک نمی‌کنند، بلکه فقط وقتی پتانسیل غشا به یک مقدار خاص برسد، شلیک می‌کنند. پتانسیل غشا، یک کیفیت ذاتی یک نورون است که با بار الکتریکی آن ارتباط دارد. کارآمدی انرژی اغلب هنگامی حاصل می‌شود که اندازه شبکه عصبی کوچک باشد و ارتباطات زائد، هرس شوند. از بین بردن ارتباطات زائد به نظم نیز کمک می‌کند.

مسیر دیگر، توسعه سخت‌افزاری است که به طور مستقیم در شبکه های عصبی تنظیم شده است. قابل توجه است که در انسان هیچ تمایزی بین نرم افزار و سخت افزار وجود ندارد؛ در حالی که این تمایز از دیدگاه تعمیر و نگهداری کامپیوتر مفید بوده و همچنین یک منبع ناکارآمدی نیز است. به زبان ساده، سخت‌افزار و نرم‌افزار در مدل محاسباتی الهام‌گرفته از مغز، کاملا یکپارچه‌ شده‌اند. پیشرفت سال‌های اخیر در زمینه محاسبات عصبی نورومورفیک (neuromorphic computing) صورت گرفته است. این مفهوم، مبتنی بر معماری جدید تراشه است که شامل نورون‌های اسپایکی، سیناپس‌های با دقت پایین و یک شبکه ارتباطی مقیاس‌پذیر است.

شبکه‌های عصبی؛ از گذشته تا آینده

انسان‌ها توانایی قابل توجهی در طبقه‌بندی و تشخیص تصاویر، صحنه‌ها و اشیا (صرف نظر از اینكه چقدر پیچیده هستند) به صورت خیلی سریع را دارند. طراحی الگوریتم‌هایی برای سیستم‌های کامپیوتری که به طور خودکار بتوانند همین کار را انجام دهند، پژوهش‌های زیادی را در سال‌های اخیر به خود اختصاص داده است. این شبکه‌‌ها تأثیر مهمی داشته‌اند و عملکرد سیستم‌های خودکار طراحی شده برای تشخیص گفتار، تشخیص بصری جسم، تشخیص صحنه، تشخیص وسیله نقلیه و بسیاری موارد دیگر را در مقایسه با شبکه‌های عصبی ساده را بهبود بخشیده‌اند. شبکه‌های پیچشی عمیق عمدتاً در زمینه پردازش تصاویر، فیلم و صدا استفاده می‌شوند. داده‌های متوالی مانند استفاده از متن و گفتار شبکه‌های بازگشتی، پیشرفت‌های مهمی را به همراه داشته‌اند. درک زبان طبیعی و هوش مصنوعی برنامه‌ها، حوزه‌هایی هستند که این شبکه‌ها در در چند سال آینده، تأثیر بزرگی بر آن‌ها خواهند گذاشت. این شبکه‌ها می‌توانند به گونه‌ای طراحی شوند که کل جملات و اسناد را به طریقی بسیار سریع‌تر و با دقت بالاتر بفهمند.

یادگیری عمیق، موفقیت چشمگیری در کاربردهای مختلف یادگیری ماشین و بینایی کامپیوتری داشته است. این نوع یادگیری اجازه می‌دهد تا چندین لایه پردازشی، خودشان ویژگی‌هایی را یاد بگیرند، برخلاف رویکردهای یادگیری ماشین معمولی که قادر به پردازش داده‌ها به شکل طبیعی خود نبودند. شبکه‌های پیچشی عمیق، عملکرد بسیار خوبی را در پردازش تصاویر و فیلم‌ها نشان داده‌اند، در حالیکه شبکه‌های بازگشتی، موفقیت بزرگی را برای داده‌های متوالی نشان داده‌اند. یادگیری عمیق تأثیر زیادی بر محققانی که در حوزه‌های بینایی کامپیوتری و هوش ماشینی کار کرده‌اند، داشته است. شبکه‌های پیچیشی و شبکه‌های عصبی بازگشتی، موفقیت‌های بزرگی را بدست آورده‌اند.

بدیهی است که یک شبکه عصبی، قدرت محاسباتی خود را اولاً از طریق ساختار موازی توزیع‌شده‌اش و ثانیا، توانایی‌اش برای یادگیری و بنابراین تعمیم‌دادن، بدست می‌آورد. تعمیم، به تولید خروجی‌های معقول شبکه عصبی برای ورودی‌هایی که در طول آموزش (یادگیری) با آن‌ها روبرو نشده، اشاره دارد. این دو قابلیت پردازش اطلاعات، این امکان را برای شبکه های عصبی فراهم می‌کند که راه‌ حل‌های تقریبی خوبی برای مسائل پیچیده (در مقیاس بزرگ) که رام‌نشدنی‌ هستند، پیدا کنند. با این حال، در عمل، شبکه‌های عصبی با کارکردن به صورت جداگانه نمی‌توانند راه حل را ارائه دهند، بلکه باید به صورت یک رویکرد مهندسی سیستم سازگار، یکپارچه شوند. به طور خاص، یک مسئله پیچیده به تعدادی از وظایف نسبتاً ساده تجزیه می‌شود و شبکه‌های عصبی به زیر مجموعه‌ای از وظایفی که با قابلیت‌های ذاتی آن‌ها مطابقت دارد، اختصاص می‌یابند. با این وجود، مهم است که بدانیم راهی طولانی تا ساخت یک معماری کامپیوتری (اگر وجود داشته باشد) که از مغز انسان تقلید می‌کند، در پیش داریم.
 


منایع و مراجع: 

[1]      J. Schmidhuber, “Deep Learning in neural networks: An overview,” Neural Networks, vol. 61, pp. 85–117, 2015, doi: 10.1016/j.neunet.2014.09.003.

[2]      S. Haykin, Neural Networks and Learning Machines, vol. 3. 2008.

[3]      L. Patanè, SPRINGER BRIEFS IN APPLIED SCIENCES AND TECHNOLOGY  NONLINEAR CIRCUITS Nonlinear Circuits and Systems for Neuro-inspired Robot Control.

[4]      R. E. Neapolitan and R. E. Neapolitan, Neural Networks and Deep Learning. 2018.

[5]      S. Mirjalili, Particle Swarm Optimisation. In: Evolutionary Algorithms and Neural Networks. Studies in Computational Intelligence, vol 780. 2019.

[6]      E. Pekel and S. S. Kara, “a Comprehensive Review for Artifical Neural Network,” Sigma J. Eng. Nat. Sci., vol. 35, no. 1, pp. 157–179, 2017.

[7]      P. Sharma and A. Singh, “Era of deep neural networks: A review,” 8th Int. Conf. Comput. Commun. Netw. Technol. ICCCNT 2017, 2017, doi: 10.1109/ICCCNT.2017.8203938.

[8]      J. L. Balcázar, R. Gavaldà, and H. T. Siegelmann, “Computational power of neural networks: A characterization in terms of Kolmogorov complexity,” IEEE Trans. Inf. Theory, vol. 43, no. 4, pp. 1175–1183, 1997, doi: 10.1109/18.605580.

[9]      Y. Jiang, C. Yang, J. Na, G. Li, Y. Li, and J. Zhong, “A brief review of neural networks based learning and control and their applications for robots,” Complexity, vol. 2017, 2017, doi: 10.1155/2017/1895897.

[10]    R. M. Balabin and E. I. Lomakina, “Neural network approach to quantum-chemistry data: Accurate prediction of density functional theory energies,” J. Chem. Phys., vol. 131, no. 7, 2009, doi: 10.1063/1.3206326.

[11]    M. S. Mhatre, D. Siddiqui, M. Dongre, and P. Thakur, “A Review paper on Artificial Neural Networks: A Prediction Technique,” Int. J. Sci. Eng. Res., vol. 8, no. 3, pp. 1–3, 2017.

[12]    S. Mukhopadhyay and S. Mukhopadhyay, Deep Learning and Neural Networks. 2018.

[13]    J. Schmidhuber, “Deep Learning in neural networks: An overview,” Neural Networks, vol. 61, pp. 85–117, 2015, doi: 10.1016/j.neunet.2014.09.003.

[14]    K. Yun, A. Huyen, and T. Lu, “Deep neural networks for pattern recognition,” Adv. Pattern   Recognit. Res., pp. 49–79, 2018, doi: 10.1016/0893-6080(95)90002-0.

كلمات كليدي :
شبکه های عصبی
 
امتیاز دهی
 
 

نظر شما
نام  
پست الكترونيک
وب سایت
متنی که در تصویر می بینید عینا تایپ نمایید
نظر
login