f(Netj)
yj
X1
X2
Xd

Node j
b=1
wj1
wj2
wjd
wj0
شکل ۲- ۳: ساختار یک نرون (گره) [۲۰]
برای آموزش (تعیین وزن‌ها و بایاس‌ها) شبکه عصبی FNN دو راه وجود دارد: روش‌های کلاسیک مانند الگوریتم انتشار به عقب ([۸]BP) و روش‌های بهینه‌سازی هوشمند مانند الگوریتم ژنتیک و الگوریتم بهینه‌سازی ازدحام ذرات[۹] PSO.
مقاله - پروژه
روش BP بر پایه گرادیان نزولی در فضای خطا است که دارای قابلیت جستجوی محلی می‌باشد. اصلاح وزن‌های شبکه عصبی به گونه‌ای صورت می‌گیرد که در هر دور خطای میان خروجی مطلوب و خروجی شبکه عصبی کاهش یابد. این خطا به صورت زیر تعریف می‌شود:
(۲-۲)
به این صورت خطا برای مجموع n نمونه آموزشی محاسبه می‌گردد.  خروجی مطلوب و  خروجی شبکه عصبی می‌باشد. قدرت الگوریتم BP در قابلیت محاسبه خطای موثر برای هر واحد مخفی است. نهایتاً هر یک از وزن‌ها در دور m+1 به صورت زیر تغییر می‌کند:
(۲-۳)
(۲-۴)
در رابطه (۲-۴)  نرخ یادگیری و  اختلاف میان خروجی مطلوب و خروجی شبکه عصبی است. در روش‌های مبتنی بر گرادیان نزولی مانند BP ممکن است همگرا شدن به یک مقدار مینیمم زمان زیادی لازم داشته باشد. همچنین در این روش‌ها اگر در سطح خطا چندین مینیمم محلی وجود داشته باشد تضمینی وجود ندارد که الگوریتم بتواند مینیمم مطلق را پیدا بکند [۲۱].
روش‌های تکاملی برای اجتناب از گیر افتادن در مینیمم محلی و افزایش قدرت تعمیم دهی که از نقاط ضعف الگوریتم‌های مبتنی بر گرادیان نزولی برای آموزش شبکه عصبی بود بکار گرفته شدند. در این روش‌ها ابتدا جمعیت اولیه به صورت از پیش تعریف شده یا تصادفی مشخص می‌شود. هر یک از اعضای جمعیت یکی از راه‌ حل ‌های بالقوه است که الگوریتم تکاملی مورد نظر در طول دوره‌های مختلف فضای مسأله را جستجو و جمعیت را به سمت نقطه بهینه که کارایی را بهبود می‌دهد حرکت می‌دهد [۲۲].

۲-۴-۲- درخت‌های تصمیم

درخت‌های تصمیم از بالا به پایین یکی از الگوریتم‌های رایج دسته‌بندی می‌باشند [۲۳]. از مهم‌ترین دلایل رایج بودن این الگوریتم شفافیت و قابلیت تفسیر بالای این الگویتم است. مزیت دیگر موجود بودن پیاده‌سازی‌های قوی نظیر C4.5 است. الگوریتم‌های درخت‌های تصمیم با ساخت یک الگوریتم از بالا به پایین توسط انتخاب صفت در هر لحظه و جداسازی داده‌ها با توجه به مقادیر صفتشان انجام می‌شود [۲۳]. مهم‌ترین صفت به عنوان ریشه درخت و بقیه گره‌ها نیز به ترتیب اولویت در سطح‌های بعدی قرار می‌گیرند به گونه‌ای که گره‌هایی که ضریب دست‌یابی اطلاعات و برچسب دسته را نشان می‌دهند نزدیک ریشه قرار می‌گیرند. شکل (۲-۴) چگونگی ساخت درخت تصمیم برای جدول (۲-۱) را نمایش می‌دهد.
جدول ۲-۱: مجموعه داده‌های آموزش

 

صفت اول صفت دوم صفت سوم صفت چهارم کلاس
a1 a2 a3 a4 Yes
a1 a2 a3 b4 Yes
a1
موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...