الگوریتم پرسپترون میانگیندار ()
-
- به ازای انجام بده
-
- به ازای انجام بده
-
- اگر آنگاه
-
- پایان حلقه دوم
-
- پایان حلقه اول
-
- بازگرداندن مقدار به عنوان مقدار خروجی
شکل ۳-۲: الگوریتم پرسپترون میانگیندار
۳-۱-۱-۲. ماشین بردار پشتیبان
ماشین بردار پشتیبان شیوه دیگری برای حل یک مسئله یادگیری است که در آن مسئله در قالب یک مسئله بهینه سازی حل میشود. ماشین بردار پشتیبان[۱۹۸] بر اساس جداسازهای با بیشترین حاشیه هستند. ایده اصلی در جداسازهای با بیشترین حاشیه، یافتن ابر صفحه است که ردهها را با بیشترین حاشیه از یکدیگر افراز نمایند. حاشیه به فاصلهای گفته میشود که دو خط موازی جداساز به صورت مساوی از دو طرف طی میکنند تا یکی از آنها به یکی از دادهها برخورد نماید. از لحاظ تئوری میتوان ثابت کرد که جداسازی که بیشترین حاشیه را داشته باشد قابلیت تعمیم بیشتری نیز خواهد داشت [۱۱۵،۱۱۶] و با تغییرات کوچک در دادهها صحت ردهبندی حفظ میشود. علاوه برآن میتوان نشان داد که تنها پارامترهایی به جداسازی بیشترین حاشیه منجر می شوند که اگر آنها را مستقل از b در نظر بگیریم، در آنها کوچک باشد.
( اینجا فقط تکه ای از متن فایل پایان نامه درج شده است. برای خرید متن کامل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. )
حالتی را درنظر بگیرید که دادهها قابل تفکیک هستند و اندازه حاشیه برابر با ۱ است. بدین معنا که مجموعهای از پارامترها وجود دارد که دادههای آموزشی را با حاشیه برگی ردهبندی مینماید. در این صورت مسئله SVM به صورت رابطهی۳-۲ در میآید.
رابطه(۳-۲)
مسئله بهینه سازی SVM به دنبال یافتن بردار وزن w و گرایش b است به گونهای که نرم کمینه شود. در بسیاری از موارد این مسئله بهینه سازی غیر عملی است زیرا ممکن است چنین پارامترهایی وجود نداشته باشد که از محدودیت مسئله بهینه سازی تبعیت نمایند. بعلاوه در مواقعی هم که دادهها تفکیکپذیر هستند عموما ترجیح نمیدهیم که الگوریتم به بهترین کارایی ردهبندی بر روی دادههای آموزشی برسد؛ به عبارتی دیگر مقداری خطا قابل تحمل است، در نتیجه SVMهای «نرمحاشیه»[۱۹۹] مطرح شدند. مفهوم SVM نرمحاشیه این است که لزومی ندارد که تمام نمونهها با حاشیه ۱ ردهبندی شوند. علاوه بر آن، به ازای هر نمونهای که از محدودیت ردهبند SVM تبعیت نمیکند، محاسبه میشود که آن نمونه چقدر با موقعیتی فاصله دارد که در آن محدودیت SVM «سختحاشیه»[۲۰۰] ارضا میشود؛ این اندازه به عنوان انعطاف آن نمونه شناخته میشود. مسئله SVMهای نرمحاشیه به فرم رابطهی ۳-۳ میباشد.
رابطه (۳-۳)
در معادله SVMهای نرمحاشیه تابع هدف از دو مولفه تشکیل شده است؛ اولین مولفه را ملزم به یافتن پاسخی میکند که قابلیت تعمیم خوبی داشته باشد. مولفه دوم (مجموع مقادیر متغیرهای انعطاف) SVM را ملزم مینماید که بیشتر دادههای آموزشی را به درستی ردهبندی نماید. پارامتر C ≥ ۰موازنهای میان تطبیق ردهبند با دادههای آموزشی و یافتن یک بردار وزنی کوچک میباشد. در صورتی کهC به بینهایت میل نماید شیوه SVM نرمحاشیه به SVM سختحاشیه نزدیک میشود که در آن تمام دادههای آموزشی باید به درستی ردهبندی شوند. در صورتی که C به صفر میل کند SVM کمتر به درست ردهبندی کردن دادههای آموزشی اهمیت میدهد و به سادگی یک بردار وزن کوچک را جستجو میکند.
همانطور که گفته شد،در محدودیت مربوط به SVM نرمحاشیه، دیگر نیازی نیست که نمونه با حاشیه ۱ ردهبندی شود و به جای آن هر نمونه با حاشیه ردهبندی میشود. اگر پارامترها به گونهای یافت شوند که در آن تمام نمونههای آموزشی با حاشیه ۱ ردهبندی شوند آنگاه تمام ها میتوانند برابر با صفر قرار داده شوند. اما به عنوان نمونه در مورد دادههای تفکیکناپذیر این متغیرهای انعطاف میتوانند نماینگر خطا باشند. هرچند که تعداد محدودیتها به تعداد دادههاست ولی میتوان توسط شرایط Karush-Kuhn-Tucker [21] نشان داد که در یک بردار وزن بهینه تنها تعداد بسیار کمی از آنها مقدار غیر صفر دارند بدین معنا که هنگامی که wوb مقدار بهینه داشته باشند مطلقا بزرگتر از یک بوده و به ازای بسیاری ازn ها برابر با صفر است. نمونههایی که وزن متناظر با آنها غیر صفر است بردار پشتیبان خوانده میشوند زیرا تنها این نمونهها هستند که در تصمیم گیری ردهبند تاثیر خواهند داشت.
الگوریتمهای بسیاری برای حل کردن SVM وجود دارند سادهترین آنها تبدیل آن به یک مسئله برنامه ریزی غیرخطی[۲۱] و اعمال یک بسته بهینه سازی عمومی بر روی آن است. پس از تبدیل مسئله SVM به یک مسئله برنامه ریزی غیرخطی مسئله به فرم زیر در می آید:
رابطه(۳-۴)