نرمالسازی دادهها موجب مدلسازی بهتر شبکه عصبی و هماهنگی مناسب بین دادهها شده و اثر عمدهای در در یادگیری دارد و نتایج شبکه را بهبود بخشیده و موجب کاهش پیچیدگی مساله میشود. از طرفی برخی از توابع انتقال هم دارای دامنهای محدود به [۰،۱] هستند که در این صورت ناگزیر از نرمالیزه کردن دادهها هستیم. از جمله این توابع میتوان توابع لوجستیک و توابع تانژانت هیپربولیک را نام برد.
(۴-۲)
تعداد لایه ها :
تعداد لایه های شبکه عصبی یکی دیگر از معیار های مهم در طراحی شبکه عصبی است. تعداد لایه های معمول جهت معماری شبکه سه لایه است. لایه اول مختص ورودی ها می باشد. لایه میانی مختص نرون هایی است که عمل محاسبات را بر روی ورودی ها انجام می دهند. لازم به ذکر است که یک شبکه عصبی سه لایه، قادر به شبیه سازی هرگونه معادلات غیر خطی می باشد. اما با توجه به نوع مساله ممکن است که نیاز به لایه های بیشتری احساس شود. تعداد لایه های شبکه عصبی نیز با بهره گرفتن از روش سعی و خطا در یک مساله بدست می آید. در این تحقیق از شبکه عصبی سه لایه استفاده شده است.
تعداد نرون های لایه میانی :
در شبکههای عصبی تعداد نرون های لایه های ورودی و خروجی تابع نوع مساله است. اما در رابطه با تعداد نرون های لایه میانی نمیتوان تعداد دقیق نرون های لایه میانی را بدست آورد و این تعداد هم یکی دیگر از مسائلی است که باید به روش سعی و خطا برآورد شود.
تابع فعال سازی :
معمولا در شبکههای عصبی از توابع زیگموئیدف تانژانت هیپربولیک، تانژانت سیگموئید برای لایه پنهان استفاده میشود. در این پژوهش از توابع {’logsig’،’tansig’،’purelin’}به ترتیب برای لایه های اول دوم و سوم استفاده شده است.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
لازم به ذکر است که پارامترهای ورودی شبکه عصبی، مقادیر GDP ، و تورم و مصوبه مجلس مبنی بر اجباری شدن بیمه عمر کارکنان دولت میباشد.
فرایند آموزش پس انتشار خطا :
این فرایند در شبکه به این صورت است که ابتدا تعیین کنیم که رکوردهای مربوط به یادگیری به چه صورت و با چه توزیعی در شبکه قرار می گیرند. وزن های اولیه اتصالات بین نرون ها به صورت تصادفی توسط شبکه تعیین میگردد. سپس با بهره گرفتن از وزن های موجود خروجی شبکه محاسبه شده و با خروجی واقعی مقایسه میگردد. به این ترتیب میزان خطای شبکه محاسبه میشود و اگر میزان خطا با مقدار مطلوب آن در شبکه متفاوت باشد شبکه کارخود را مجددا ادامه داده و با تغییر ضرایب اولیه و با تکرار مراحل قبلی این کار را تا جایی ادامه می دهد که به میزان خطای قابل قبول برسیم. در تحقیق حاضر از الگوریتم های آموزشی LM[39] ، GD[40] ، GDX [۴۱]استفاده شد البته با توپولوژی های مختلف که با توجه به اینکه وزنهای اولیه به صورت تصادفی تعیین می شوند و در نهایت خروجی های متفاوتی می دهند برای هر الگوریتم ۳۰ بار برنامه را اجرا کردیم و مقادیر شاخص های متوسط خطا و ضریب تعیین را توسط روش میانگین گیری ساده در جدول۸-۴ ارائه گردیده است.
جدول ۴-۹ : بررسی عملکرد شبکههای مورد استفاده
مدل | الگوریتم | توپولوژی | اعتبار سنجی | اعتبار سنجی |
۱ | LM | ۱-۱۰-۳ | ۰٫۹۶ | ۰٫۰۰۱۴۸۳ |
GD | ۱-۱۰-۳ | ۰٫۹۶ | ۰٫۰۰۶۹۹۷ | |
GDX | ۱-۱۰-۳ | ۰٫۹۶ | ۰٫۰۰۲۱۴۲ | |
۲ | LM | ۱-۱۵-۳ | ۰٫۹۷ | ۰٫۰۰۳۱۹۰ |