بهبودی بر شبکههای عصبی چند لایه انتشار برگشتی با به کارگیری نرخ یادگیری متغیر و تئوری اتوماتان و تعیین نرخ یادگیری بهینه
محورهای موضوعی : آنالیز سازه - زلزلهمحمدرضا جعفریان 1 , علیرضا عباس زاده 2
1 -
2 -
کلید واژه:
چکیده مقاله :
شبکههای عصبی چند لایه پیش خور از دیرباز به طور وسیعی مورد توجه محققان بوده است. این شبکهها علیرغم موفقیت چشمگیر در برقراری ارتباط بین ورودی و خروجی، دارای چندین نقطه ضعف بودهاند. به عنوان مثال زمان آموزش این شبکهها نسبتاً طولانی است و گاهی ممکن است این شبکهها آموزش نبینند. دلیل طولانی بودن زمان آموزش را میتوان به انتخاب نامناسب پارامترهای شبکه نسبت داد. روش به دست آوردن پارامترهای وزن وبایاس شبکه، استفاده از گرادیان تابع انرژی شبکه میباشد. همان طور که میدانیم تابع خطای شبکه دارای سطح ناهمواری بوده لذا شبکه در نقاط بهینه محلی متوقف شده و آموزش نمیبیند. برای جبران اشکالهای وارد به الگوریتم بازگشتی، جهت بالا بردن سرعت آموزش از نرخ یادگیری متغیر تطبیقی و برای جلوگیری از به دام افتادن شبکه در نقاط بهینه محلی از روش الگوریتم اتوماتان استفاده مینماییم. با استفاده از این روشها میتوان نرخ یادگیری بهینه برای شبکههای مختلف به دست آورد.
Multilayer Bach propagation neural networks have been considered by researchers. Despite their outstanding success in managing contact between input and output, they have had several drawbacks. For example the time needed for the training of these neural networks is long, and some times not to be teachable. The reason For this long time of teaching is due to the selection unsuitable network parameters. The method For Obtaining the network parameters Of bias and weight is using is using gradient network energy function. As we Know, network error Function is of a not flat level, So the network is stopped at some optimum local points and we have no instruction at this points. To compensate for returned algorithm drawbacks, we use adaptive variable learning rate to enhance learning rate and in order to avoiding our network trapping in local points we used automata algorithm. By using this method it is possible to obtain improved learning rate For different net works.