شبکه عصبی مصنوعی چیست؟
شبکه عصبی مصنوعی از جمله روش هایی هستند که قادر به تخمین موارد غیرخطی متعدد در داده ها بوده و یک چهارچوب محاسبه ای انعطاف پذر برای دامنه وسیعی از مسائل غیرخطی اند.
یکی از مزیتهای بارز این گونه مدلها نسبت به مدلهای دیگر غیرخطی، این است که شبکه های عصبی مصنوعی یک تقریب زننده جهانی هستند که می توانند هر نوع تابعی را با دقت دلخواه تقریب بزنند. این گونه از شبکه ها نیاز به هیچ گونه پیش فرضی در مورد شکل مدل در فرایند مدلسازی نداشته و به طور کلی یک مدل مبتنی بر داده هستند. نقطه قوت شبکه های عصبی پردازش موازی اطلاعات موجود در داده هاست، این گونه از شبکه ها نیازمند هیچ گونه پیش فرضی در مورد شکل و ساختار مدل در فرایند مدلسازی خود نیستند و به طور کلی یک مدل کاملاً مبتنی بر داده هستند.
منبع: بیجاری م، خاشعی م، صالحی ع، پیش بینی و تحلیل قیمت جهانی فولاد خام با بکارگیری مدل ترکیبی میانگین متحرک خود رگرسیون انباشته و شبکه های عصبی مصنوعی، مجموعه مقالات سمپوزیوم فولاد ۸۴، ص ۹۹۲-۱۰۰۵، ۱۳۸۴٫
انواع مختلفی از شبکه های عصبی مصنوعی وجود دارند که به منظور پیش بینی مورد استفاده قرار می گیرند که از آن جمله می توان به شبکه های عصبی چندلایه پیشخور (FFNN)، شبکه های عصبی شعاعی محور (RBF)، شبکه های عصبی احتمالی (PNN) و شبکه های عصبی رگرسیون عمومی (GRNN) اشاره کرد.
منبع: خاشعی م، بکارگیری شبکه های عصبی رگرسیون عمومی (GRNN) به منظور پیش بینی، فصلنامه بهبود، دانشکده صنایع و سیستم ها، دانشگاه صنعتی اصفهان، شماره ۲۲، ص ۴۲-۴۵، بهار ۱۳۸۵٫
هر یک از مدلهای مذکور دارای مزایا و معایبی بوده و عملکردهای متفاوتی نیز در قبال مسائل مختلف داشته اند، اما در حالت کلی برتری هیچ کدام بر دیگری ثابت نشده است. پرسپترون های چند لایه (MLP)، شبکه هایی پیشرو با یک لایه مخفی هستند که جزو پرکاربردترین مدلهای شبکه های عصبی به منظور پیش بینی سری های زمانی به حساب می آیند. این گونه مدلها از سه لایه پردازش ساده اطلاعات متصل به هم تشکیل شده اند.
ساختار کلی یک پرسپترون چندلایه
در این مدل بجز گره های ورودی، هر گره با یک تابع کنشوری غیرخطی یک نرون (عنصر پردازشی) محسوب می شود.
Rosenblatt, Frank. x. Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington DC, 1961
MLP در واقع اصلاح شده مدل پرسپترون خطی استاندارد است و می تواند داده هایی که به صورت خطی قابل تفکیک نیستند را متمایز کرد.
Cybenko, G. 1989. Approximation by superpositions of a sigmoidal function Mathematics of Control, Signals, and Systems, 2(4), 303–۳۱۴
در این گونه از شبکه ها رابطه بین خروجی (yt) و ورودی ها (yt-1,yt-2,…,yt-p) به صورت زیر است:
به طوری که wj، wij پارامترهای مدل بوده که غالباً وزنهای اتصالی نامیده می شوند، P تعداد گره های ورودی و Q تعداد گره های مخفی اند. تابع سیگوییدی اغلب بعنوان تابع کنشوری لایه مخفی مورد استفاده قرار می گیرد.
از این رو پرسپترون چندلایه (MLP) اشاره شده در رابطه ۱ در حقیقت بعنوان یک نگاشت غیرخطی از مشاهدات گذشته به مقدار آینده خواهد بود. یعنی:
به طوری که W بردار همه پارامترها و f تابعی است که توسط ساختار شبکه عصبی و وزنهای اتصالی تعیین می شود، از این رو شبکه های عصبی معادل مدلهای خودرگرسیون غیرخطی هستند.
Zhang, G., Patuwo, B.E., and Hu, M.Y., “Forecasting with Artificial Neural Networks: The State of the Art, “International Journal of Forecasting, Vol. 14, pp. 35– ۶۲, ۱۹۹۸٫
مدل ساده بیان شده در رابطه ۱ دارای قدرت تقریب بسیار زیادی بوده، چرا که قادر است هر تابع دلخواه را به شرط آنکه تعداد گره های مخفی (Q) به اندازه کافی بزرگ باشد را تقریب بزند. در عمل ساختار یک شبکه عصبی ساده که تعداد نرون کمتری در لایه مخفی خود دارد، غالباً در پیش بینی های خارج از نمونه بهتر عمل خواهد کرد و این به دلیل دوری جستن از مسئله برازش بیش از حد است که عمدتاً در فرایند مدل سازی شبکه های عصبی مصنوعی رخ می دهد.
یک مدل بیش از حد برازش شده، برای داده هایی که برای ساخت مدل (داده های آموزشی) استفاده شده اند برازش خوبی نشان می دهد اما توانایی تعمیم آن، برای داده های خارج از نمونه بسیار ضعیف است. انتخاب تعداد نرون های لایه مخفی وابسته به داده ها بوده و هیچ قانون نظام مندی به منظور تعیین این پارامتر در طراحی شبکه های عصبی در ادبیات موضوع وجود ندارد. مرحله مهم دیگر مدلسازی شبکه های عصبی، انتخاب تعداد وقفه های موجود در مشاهدات به عنوان بردار ورودی شبکه است که شاید مهمترین پارامتر در طراحی شبکه های عصبی باشد، چرا که این پارامتر در تعیین ساختارهای خودهمبسته غیرخطی موجود در سری های زمانی نقش اساسی دارند. هیچ نظریه خاصی برای انتخاب P وجود ندارد، از این رو تجربه و آزمون و خطا مشخص کننده مقدار مناسب P و Q خواهند بود. وقتی یک ساختار شبکه ای P و Q مشخص شد، شبکه آماده آموزش فرایند تخمین پارامترهاست. همانند مدلسازی خودرگرسیون میانگین متحرک انباشته پارامترها طوری تخمین زده می شوند که معیار دقت شبکه مانند میانگین مربعات خطا حداقل می شود. این فرایند توسط الگوریتم های بهینه سازی غیرخطی همچون پس انتشار خطا انجام می شود.
Khashei, M., Bijari, M., and Raissi, GH. A., “Improvement of Auto-Regressive Integrated Moving Average Models Using Fuzzy Logic and Artificial Neural Networks (ANNs),” Neurocomputing, Vol. 72, pp. 956- 967, 2009.
درباره آسام
آکادمی سامانه اطلاعات مکانی یک مرجع تخصصی و کاربردی برای آموزشهای GIS و RS است.
نوشته های بیشتر از آسام
دیدگاهتان را بنویسید