شبکه‌ های عصبی با الهام از ساختار مغز، فراسوی عملکردهای انسانی می‌روند (قسمت سوم)

شبکه‌ های عصبی با الهام از ساختار مغز، فراسوی عملکردهای انسانی می‌روند (قسمت سوم)

​​​​​​​مکانیسم زیستی در شبکه های عصبی مصنوعی، شبیه سازی می‌شود که دارای واحدهای محاسباتی به نام نورون هستند.

معمولا از اصطلاح شبکه های عصبی، به جای شبکه‌های عصبی مصنوعی استفاده می‌شود. واحدهای محاسباتی از طریق وزن‌ها به یکدیگر متصل می‌شوند که نقشی مانند قدرت ارتباطات سیناپسی را در ارگانیسم‌های زیستی بازی می‌کنند. هر ورودی به یک نورون، با یک وزن، مقیاس‌بندی می‌شود که بر عملکرد محاسبه شده در آن واحد تأثیر می‌گذارد. یک شبکه عصبی مصنوعی، عملکردی از ورودی‌ها را با انتشار مقادیر محاسبه‌شده از نورون‌های ورودی به نورون‌های خروجی و با استفاده از اوزان به عنوان پارامترهای حد واسط محاسبه می‌کند. یادگیری، با تغییر اوزان متصل به نورون‌ها رخ می‌دهد. درست همانطور که محرک‌های خارجی برای یادگیری در ارگانیسم‌های زیستی لازم هستند، محرک خارجی در شبکه های عصبی مصنوعی با داده‌های آموزشی حاوی نمونه‌هایی از جفت‌های ورودی-خروجی عملکردی که باید آموخته شود، فراهم می‌شوند. مثلا داده‌های آزموشی، باید شامل نمایش‌های پیکسلی تصاویر (ورودی) و برچسب‌های تفسیری آن‌ها (به عنوان مثال ،هویج ، موز)، به عنوان خروجی باشد. این جفت‌داده‌های آموزشی، با استفاده از نمایش‌های ورودی برای پیش‌بینی در مورد برچسب‌های خروجی، به شبکه عصبی خورانده می‌شوند. داده‌های آموزشی، بسته به اینکه یک خروجی چقدر با برچسب خروجی تفسیری در داده‌های آموزشی مطابقت دارد، بازخوردی برای صحیح بودن اوزان در شبکه عصبی، بدست می‌دهند. خطاهای ایجاد شده توسط شبکه عصبی در محاسبه یک عملکرد را می‌توان به عنوان نوعی بازخورد نامطلوب در یک ارگانیسم زیستی تلقی کرد که منجر به تنظیم قدرت سیناپسی می‌شود. به همین ترتیب، اوزان بین نورون‌ها در یک شبکه عصبی، در پاسخ به خطاهای پیش‌بینی تنظیم می‌شوند. هدف تغییر اوزان، این است که تابع محاسبه‌شده را اصلاح کنیم تا پیش‌بینی‌های صحیح‌تری در تکرارهای بعدی انجام دهیم. بنابراین اوزان، به دقت با یک روش موجه ریاضیاتی تغییر می‌کنند، به گونه‌ای که خطای محاسبه در آن مثال را کاهش دهند. با تنظیم پی‌درپی ‌اوزان بین نورون‌ها در بسیاری از جفت‌های ورودی-خروجی، تابع محاسبه‌شده توسط شبکه عصبی، با گذشت زمان اصلاح می‌شود، به گونه‌ای که پیش‌بینی‌های دقیق‌تری را ارائه دهد. از این ‌رو، اگر شبکه عصبی با تصاویر مختلفی از موز آموزش داده شود، سرانجام قادر خواهد بود موز را در تصویری که قبلاً ندیده، به درستی تشخیص دهد. این توانایی برای محاسبه‌ی دقیق عملکرد ورودی‌های دیده‌نشده با آموزش یک مجموعه محدود از جفت‌های ورودی-خروجی، تعمیم مدل (model generalization) نام دارد. فایده‌ی اصلی تمام مدل‌های یادگیری ماشین، از توانایی آ‌ن‌ها برای تعمیم آموخته‌های خود از داده‌های آموزشی دیده شده به مثال‌های دیده‌نشده ناشی می‌شود.

مقایسه شبکه عصبی مصنوعی با سیستم زیستی، اغلب به عنوان یک کاریکاتور بسیار ضعیف از کارهای مغز انسان مورد انتقاد قرار می‌گیرد. با این وجود، اصول علوم اعصاب اغلب در طراحی معماری‌های شبکه عصبی، مفید بوده است. یک دیدگاه متفاوت این است که شبکه‌های عصبی، به عنوان  انتزاعات سطح بالاتر مدل‌های کلاسیکی که معمولاً در یادگیری ماشین مورد استفاده قرار می‌گیرند، ساخته می‌شوند. در حقیقت، بنیادی‌ترین واحدهای محاسبه در شبکه عصبی، از الگوریتم‌های یادگیری ماشین سنتی مانند رگرسیون حداقل مربعات و رگرسیون لجستیک الهام می‌گیرند. شبکه‌های عصبی با کنار هم قراردادن بسیاری از این واحدهای بنیادی و یادگیری اوزان واحدهای مختلف به طور مشترک، به منظور کمینه کردن خطای پیش‌بینی، قدرت خود را بدست می‌آورند. از این منظر، یک شبکه عصبی می‌تواند به عنوان یک نمودار محاسباتی از واحدهای اولیه دیده شود که قدرت بیشتر با اتصال آن‌ها به شیوه‌‌های خاص بدست می‌آید. وقتی یک شبکه‌ی عصبی در ابتدایی‌ترین شکل خود، بدون اتصال چند واحد استفاده می‌شود، الگوریتم‌های یادگیری، اغلب به مدل‌های کلاسیک یادگیری ماشین کاهش می‌یابند. قدرت واقعی یک مدل عصبی نسبت به روش‌های کلاسیک، وقتی این واحدهای محاسباتی ابتدایی ترکیب می‌شوند و اوزان مدل‌های بنیادی با استفاده از وابستگی‌های آن‌ها به یکدیگر آموزش داده می‌شود،‌ نمایان می‌گردد. با ترکیب چند واحد می‌توان قدرت مدل را برای یادگیری توابع پیچیده‌تر داده‌ها نسبت به مدل‌های ابتدایی یادگیری ماشین افزایش داد. همچنین نحوه ترکیب این واحدها، نقشی اساسی در قدرت معماری بازی می‌کند و درک و بینشی تحلیل‌گرانه نیاز دارد. علاوه بر این، داده‌های آموزشی کافی نیز برای آموختن تعداد بیشتری از اوزان در این نمودارهای محاسباتی توسعه یافته لازم است.

اصول اساسی ANN ها وساختارهای اولیه آنها

اصول اساسی شبکه های عصبی مصنوعی برای اولین بار توسط مک‌کالک (McCulloch) و پیتس (Pitts) در سال 1943 و به صورت پنج فرض زیر، تدوین شد:

  1. فعالیت یک نورون (ANN)، همه یا هیچ است.
  2. تعداد مشخص و ثابتی از سیناپس‌ها (و بزرگتر از یک) باید در یک بازه‌ی زمانی افزایش عصبی برای تحریک یک نورون، تحریک شوند.
  3.  تنها تاخیر قابل توجه در سیستم عصبی، تاخیر سیناپسی است.
  4.  فعالیت هر سیناپس بازدارنده، از تحریک نورون در آن زمان، کاملا جلوگیری می کند.
  5. ساختار شبکه اتصال داخلی، در طول زمان تغییر نمی‌کند. با فرض (۱)، نورون یک عنصر دودویی است. در حالی که فرضیات بالا، شاید از نظر تاریخی، ابتدایی‌ترین اصول سیستماتیک هستند، اما همه‌ی آن‌ها در مورد مدرن‌ترین طراحی‌های ANN امروزی کاربرد ندارند.
  6. قانون یادگیری هِب (قاعده هِب) نیز، یک اصل کاربردی است. قانون یادگیری هب تصریح می‌کند که: «وقتی آکسون سلول A برای تحریک سلول B، به اندازه‌ی کافی نزدیک است و هنگامی که A به طور مکرر و مداوم در شلیک B مشارکت می‌کند، سپس نوعی فرایند رشد یا تغییر متابولیک در یک یا هر دو سلول رخ می‌دهد، به طوری که کارایی سلول A فزایش می‌یابد. (یعنی وزن سهم خروجی سلول A به شلیک سلول B افزایش می‌یابد).

قانون هب را می‌توان با مثال سگ پاولفی (Pavlovian Dog) توضیح داد: فرض کنید سلول S باعث ترشح بزاق شده و توسط سلول F تحریک می‌شود که به نوبه خود با دیدن غذا تحریک می‌گردد. همچنین فرض کنید سلول L که با شنیدن صدای زنگ تحریک می‌شود، به سلول S وصل می‌گردد، اما به تنهایی نمی‌تواند باعث شلیک S شود. حال، پس از شلیک مکرر S توسط سلول F در حالیکه سلول L نیز در حال شلیک است، سلول L در نهایت قادر به شلیک S بدون شلیک سلول F خواهد بود. این به دلیل افزایش نهایی وزن ورودی از سلول L به سلول S است. در اینجا سلول‌های L و S در فرمول‌بندی قاعده‌ی هب بالا، به ترتیب نقش سلول های A و B را بازی می‌کنند.

همچنین نیازی نیست قاعده هب در تمامی طرح‌های ANN استفاده شود. با این حال، استفاده از اوزان در ورودی هر نورون ANN و تغییر این اوزان طبق برخی روش‌ها، در مورد همه ANNها مشترک است. این امر در تمام نورون‌های زیستی اتفاق می افتد که در آن، تغییر اوزان از طریق فرآیندهای بیوشیمیایی پیچیده در سمت دندریت سلول عصبی، درمحل اتصال سیناپسی و ساختارهای بیوشیمیایی پیام‌رسان‌های شیمیایی که از آن محل عبور می‌کنند، رخ می‌دهد. این رخداد تحت تأثیر تغییرات بیوشیمیایی دیگر، خارج از غشای سلول و در مجاورت آن قرار دارد.

(۷) اصل حافظه انجمنی. حافظه انجمنی حاکی از آن است که یک بردار اطلاعات (الگو، کد) که به گروهی از نورون‌ها وارد می‌شود، ممکن است اوزان ورودی آن نورون خاص را در آرایه‌ای از نورون‌ها تغییر دهد، به گونه‌ای که آن‌ها ورودی رمزگذاری‌شده را بسیار بهتر تقریب بزنند.

 (۸) اصل «برنده همه چیز را برمی‌دارد» (Winner-Takes-All) بیان می‌کند که اگر در آرایه‌ای از N نورون که بردار ورودی یکسانی دارند، تنها یک نورون شلیک کند، این نورون همان نورونی است که اوزان آن با بردار ورودی بهترین تطابق را دارد.

هر دو اصل (۷) و (۸) اساساً در شبکه‌ی عصبی زیستی موجود هستند. آن‌ها مسئول این هستند که بگویند یک سیگنال بصری نور قرمز که از طرف شبکیه می‌آید، در همان گروه کوچک بسیار خاص نورون‌ها در قشر بینایی تمام می‌شود. همچنین در یک نوزاد، در ابتدا ممکن است سیگنال نور قرمز به یک نورون غیر اختصاصی وصل شود. (که اوزان آن در ابتدا به طور تصادفی تنظیم می‌شوند، اما به کد سیگنال قرمز نزدیک‌تر هستند). تنها ذخیره‌سازی مکرر در آن نورون دریافت‌کننده، کد آن را برای تقریب بهتر سایه داده‌شده‌ی سیگنال نور قرمز تصحیح خواهد کرد.
 


ادامه دارد...

كلمات كليدي :
شبکه های عصبی
 
امتیاز دهی
 
 

نظر شما
نام  
پست الكترونيک
وب سایت
متنی که در تصویر می بینید عینا تایپ نمایید
نظر
login