عمــومی (GRNNs)، مقالــه وانــگ و یــان [١١] در ترکیــب نگاشــت هــای خودســازمان ده بــا شــبکه هــای عصــبی المــان (ELMAN)، مقاله کارپین ترییو [١٢] در ترکیـب نگاشـت هـایخودسازمان ده با شبکه های عصبی پرسپترو ن چندلایه (MLP) و غیره اشاره نمود [١۵ -١٣]. لیست مختصری از این اقـدامات درجدول (١) خلاصه سازی شده اند.
در این مقاله، به منظور غلبه بر محـدودیت تعـداد متغیرهـایورودی شبکه های عصبی و همچنین بهبود دقت پی شبینی هـا درمحیط های مالی، از نگاشت های خودسازمان ده که از دقیق تـرینروش های حال حاضر در شناخت و تحلیل فضاهای چندبعـدیغیرخطی هستند، به منظور پیشنهاد یـک روش ترکیبـی اسـتفادهشده است. در روش پیشنهادی، ورودی های شـبکه در ابتـدا بـا

Iutput Layer Output Layer

o

o

شکل ١ – ساختار یک نگاش ت خودسازمانده (۵×۴)

استفاده از نگاشت های خود سازمان ده خوشه بنـدی مـی گردنـد .
ایده این کار بر این اصل استوار اسـت کـه در ادبیـات موضـوعپیش بینی با شبکه های عصبی مصنوعی، اکیدﹰا توصیه شده اسـتکه متغیرهای ورودی به شبکه نباید با یکدیگر وابستگی خطی و غیرخطی داشته باشند. لذا با خوشه بنـدی متغیرهـای ورودی بـااسـتفاده از نگاشـت هـای خـود سـازمان ده مـی تـوان وابسـتگیفی مابین خوشه های ورودی را به حداقل رسانید. در مرحله دوم از روش پیشنهادی نیز متغیرهای موجود در هر خوشه با توجـهبه میزان تأثیرگذاری شان با یکدیگر ترکیب می گردند تـا مقـدارمرتبط با هر خوشه تعیین گردد.
محتوای سایر قسمت های این مقاله بدین صورت است: در بخش های دوم و سوم، به ترتیب مفاهیم پایه ای شبکه های عصبی چندلایه پیشخور و نگاشت های خود سازمان ده به اختصار شـرحداده شده اند. در بخش چهارم روش ترکیبی پیشنهادی به منظـورپــیش بینــی شــرح داده شــده اســت. در بخــش پــنجم قیمــت محصولات فولادی شرکت سهامی ذوب آهن اصفهان در بورس فلزات تهران با استفاده از روش پیشنهادی، پـیش بینـی و نتـایجحاصله با سـایر روش هـا مقایسـه شـده اسـت، درنهایـت نیـزنتیجه گیری آورده شده است.

٢ – نگا شتهای خودسازمانده(SOM)
نگاشت های خودسازمان ده کلاس خاصی از شبکه های عصبی مصنوعی هستند که غالباﹰ به منظور تحلیل فضـا هـای پیچیـدهداده ها مورد استفاده قرار می گیرند. اساس عملکرد این گونـهاز شبکه ها تبدیل یک فضای ورودی با بعد دلخـواه بـه یـکفضا با بعـد ک متـر و غالبـاﹰ یـک نگاشـت دوبعـدی گسسـتهمی باشد. به همین دلیـل اسـت کـه ایـن گونـه از شـبکه هـا رابه عنوان یک ابزار کاهش دهنده بعد محسوب می نمایند. هدف نهایی از استفاده از نگاشت های خودسـازمان ده نیـز حصـولهمین مدل ساده از داده های اولیه به منظور کاهش محاسـباتو پیچیدگی های موجـود در زمینـه تجزیـه و تحلیـل داده هـااست. نگاشت هـای خودسـازمان ده کـاربرد هـای فراوانـی درزمینه های مختلف علوم داشته که مهـم تـرین آنهـا اسـتخراجداده ها و تحلیل فضا هـای پیچیـده مـی باشـد [٢۶]. از سـایرکاربرد های این گونه از شبکه هـا مـی تـوان بـه خوشـه بنـدی [٢٧]،تشخیص الگو [٢٨]، آنالیز تصـاویر و اصـوات [٢٩] و تشخیص خطا [٣٠] اشاره نمود.

٢ -١ – توپولوژی نگاشت های خودسازمانده
نگاشت های خودسازمان ده در حالت کلـی دارای یـک سـاختاردو لایـه بـا یـک لایـه ورودی و یـک لایـه خروجـی هسـتند.
نرون های لایه ورودی وظیفه انتقال داده ها به شـبکه را برعهـدهداشته و در حالت کلی تعداد آنهـا بـا بعـد بـردار هـا در فضـایورودی برابر اسـت . لایـه خروجـی نیـز شـامل مجموعـه ای از نرون ها است که معمولاﹰ در یک صـفحه مسـطح کنـار یکـدیگرچیده شده اند. این نرون های لایه خروجی بـا توجـه بـه روابـطهمسایگی مشخصی که فـی مـابین آنهـا تعریـف شـده و رفتـارمتقابل روی همدیگر، خروجی شبکه را ایجـاد مـی کننـد [٣١].
تعداد نرون های موجود در لایه خروجی به مسئله مورد مطالعـهوابسته بوده و توسط کاربر مشـخص مـی گـردد . سـاختار یـکنگاشت خودسـازمانده (۵×۴) در شـکل (١) نمـایش داده شـدهاست.
نـرون هـای ورودی بـه وسـیله وزن هـای اتصـالی بـه تمـام نرون های لایه خروجی متصل می باشند. هر یک از واحـد هـایخروجی که بـردار هـای مرجـع نیـز نامیـده مـی شـوند، توسـطمختصــات آنهــا در صــفحه خروجــی وزن دهــی مــی گردنــد؛ سپس با ارائه الگو های آموزشی به شبکه، وزن نرون ها که مبـینمختصات آنها در صـفحه خروجـی مـی باشـ د، طبـق الگـوریتمآموزشی که در قسمت های بعدی توضیح داده خواهد شد، تغییر خواهد کرد. اساس تغییر در اوزان جستجوی نرونی با بیشـترینشباهت به الگوی ورودی(نرون برنده) و حرکت نرون مذکور و جمعی از همسایگانش به سـوی ا لگـوی ورودی اسـت . نتیجـهنهایی تغییر اوزان فشرده سازی اطلاعات و تعیـین فضـای مـوردنظر می باشد.

٢ -٢ – الگوریتم یادگیری نگاشت های خودسازمانده
الگوریتم آموزش نگاشت های خودسازمان ده از نوع بدون نـاظراست. اساساﹰ الگوریتم یادگیری بدون ناظر را می توان بـ ه وسـیلهمعـادلات مرتبـه اول مشـخص نمـود. ایـن معـادلات توصـیفمی کنند که چگونه وزن های شبکه نسبت به زمان یا تکرار حالت گسسته سازگار می شوند. به منظور سازگاری اوزان اغلب از یک مقیاس شباهت یا اشتراک الگو برای هدایت فرآیند یادگیری که معمــولاﹰ مــا را بــ ه ســوی برخــی از شــکل هــای همبســتگی، خوشه سازی و یا رفتار های رقابتی شبکه سوق می دهد، اسـتفادهمی گـردد . الگـوریتم یـادگیری نگاشـت هـای خودسـازمان ده در حالت کلی مبتنی بر انتخاب نرون برنده و حرکت نرون مـذکورو برخی از همسایگانش، به سوی داده ورودی مورد نظر اسـت .
الگوریتم یادگیری نگاشت های خودسازمان ده را را مـی تـوان درمراحل زیر خلاصه نمود:
– مرحله آغازین، در این مرحله وزن هر نرون بـ ه صـورتیک عدد تصادفی قرار داده می شود، سپس یـک الگـوی ورودی

شکل ٢ – انتخاب نرون برنده از میان الگ وهای مرجع

(X = (x ,x ,…,x1 2d به شبکه اعمال می گردد.
– تعیین نرون برنده، در این مرحله براساس معیـار تشـابهشبکه، نرون برنده مشخص می گردد. معیار های تشابه مختلفی را مـی تـوان در نگاشـت هــای خودسـازمان ده بـه کارگرفـت، امــا معمول ترین معیاری که در ایـن گونـه از شـبک ههـا بـه کارگرفتـهمی شود، فاصله اقلیدسی اسـت . رابطـه معیـار تشـابه اقلیدسـیمطابق رابطه زیر می باشد:
1
2746129470

1399061-150362

− W =∑d (Xi − wi )2  2
X
 i 1=
حال به صـورت همزمـان ورودی (X = (x ,x ,…,x1 2 d بـا تمـامعناصر موجود در شبکه مقایسه میگردد. نرون برنده، نرونی با فاصله کمینه در میان تمامی الگ وهای مرجع از داده ورودی است:

X −mc

= min{

X −mr

}
به قسمی که mc نرون برنده و mr بردار های مرجع می باشند.
نمونه ای از انتخاب نـرون برنـده از میـان الگـو هـای مرجـع درشکل(٢) آورده شده است.
– تعیین نرون های همسایه، بعـد از مشـخص شـدن نـرونبرنده مجموعه ای از نرون های همسایه نرون برنده که میبایست مقادیرشــان تغییــر نماینــد، مشــخص مــی شــوند. برخــی از همسایگی های مختلف در شکل (٣) آورده شـده اسـت. تغییـرمقادیر مربوط به نرون های همسایه در حالت کلی به دو صورت انجام می پذیرد[٣٢]. در حالت اول یک شعاع همسـایگی معـیندر اطراف سلول برنده انتخاب مـی گـردد . در ایـن روش تمـامنرون هایی از شبکه که در فاصله معین از نرون برنده مـی باشـندبا یک ضریب ثابـت بـه سـمت ورودی حرکـت مـی کننـد . در روش دوم تمامی نرون های موجود در شبکه با ضـریبی نـابرابربه سمت ورودی حرکت می کنند. این ضریب نابرابر به صـورتیاست که در نرون برنده حداکثر مقدار را داشته و با دورشـدن ازنرون برنده مقدارش کاهش پیدا می کند.
– اصلاح اوزان، در انتها اوزان مربـوط بـه نـرون برنـده وهمسایگانش باید براساس ورودی شـبکه اصـلاح گردنـد. ایـنتغییرات براساس رابطه زیر صورت می گیرد:
mr (t +1) = mr (t)+α(t)⋅hcr (t)x t( )−mr (t) به قسمی که ( )x t بـردار ورودی در زمـانmr (t) ،t الگـویمرجــع rام در زمــان α(t) ،t نــرخ یــادگیری در زمــانt و (hcr (t تابع همسایگی است که براساس تابع کرنل مطابق زیـرتعریف می گردد:

در این سایت فقط تکه هایی از این مطلب با شماره بندی انتهای صفحه درج می شود که ممکن است هنگام انتقال از فایل ورد به داخل سایت کلمات به هم بریزد یا شکل ها درج نشود

شما می توانید تکه های دیگری از این مطلب را با جستجو در همین سایت بخوانید

ولی برای دانلود فایل اصلی با فرمت ورد حاوی تمامی قسمت ها با منابع کامل

اینجا کلیک کنید

859536-88185

hcr ( )t = exp(− k2cσ−( )tkr2 2 )

بـه قسـمی کـهk ,kcr ∈ℜd بـه ترتیـب بیـانگر نـرون برنـده والگو های مرجع همسایه آن بوده و (σ(t شـعاع تـابع کرنـل درزمان t می باشـد . نتیجـه مـوارد فـوق اصـلاح اوزان و حرکـتنـرو نهـای مـذکور بـه سـوی نمونـه آموزشـی اسـت. (α(t پــارامتری اســت کــه بــه منظــور کنتــرل همگرایــی الگــوریتمبه کارگرفته می شود و وابسته به تکرار است. به منظـور پایـداریشــبکه مــ یبایســت 10 < α(t) < بــوده و لزومــاﹰ برحســبt به صورت کاهشی یکنواخت باشـد . آمـوزش بـدون نظـارت درحالـت کلـی بـه صـورت اجتنـاب ناپـذیری از حالـت نظ ارتی پیچیده تر بوده و به همـین دلیـل نیـز بـه زمـان بیشـتری جهـتیادگیری الگو های آموزشی نیاز دارد [٣٣].

شکل ٣ – انواعی از همسایگ یها در نگاشت های خودسازمان ده

٢ -٣ – بکارگیری نگاشت های خودسازمان ده به منظور نمایش و تحلیل فضا های چندبعدی
پس از آموزش یک شبکه خودسازمان ده، به تعداد نرون های انتخابی برای شبکه، بردارهای وزنی n بعدی به دست خواهد آمد که هر یک نمایانگر بخشی از فضای مورد تحلیل است. در صورت انتخاب تعداد مناسب نـرون، ابعـاد شـبکه و در نهایت آموزش مناسب شبکه، نمایش بردارهای وزنی متناظر با نرون های هر نقشه می تواند به خوبی نمایانگر فضای مورد تحلیل باشد. بدین منظور متناظر با مقـدار هـر مشخصـه دربــردار وزنــی یــک بــردارRGB و در نتیجــه یــک رنــگدرنظرگرفته می شود [٣۴]. به گونـه ای کـه کلیـه مقـادیر بـااستفاده از طیف رنگی، از آبی تیره برای کمتـرین مقـدار تـاقرمز تیره برای بیشترین مقدار، قابل نمایش باشد. توضـیحاﹰRGB از فرمت های استاندارد تعریف رنـگ هاسـت کـه هـررنگی را با توجه به میزان شدت رنگ های اصلی و از ترکیب آنها قابل حصول می سازد.
بدین ترتیب به ازاء هر مشخصه، رنگ هر نرون تعیین شـدهو نقشه متناظر با آن مشخصه به دست می آید. با به دسـت آمـدننقشه های مشخصات، بررسی ارتباط متقابل میان مشخصـه هـا وتست همبستگی بین آنها امکان پذیر مـی گـردد . بـه عنـوان مثـالهم رنگ بودن قسمت های متناظر دو نقشه، نشـان دهنـده وجـودرابطه و همبستگی مشخصه های متناظر با هـر مشخصـه اسـت . میـزان رابطـه موجـود و شـدت همبسـتگی میـان دو متغیـر در قسمت های مختلف فضا نیز از شدت تفاوت یا تشابه رنگ میان نقشه های متناظر با هر یک از متغیرها قابل بررسی اسـت . البتـهممکن است شدت و یا حتی نوع رابطه موجود بین دو مشخصه
ج

شکل ۴ – نمونه ای از نقش ههای SOM در تحلیل الگوهای پیچیده

در نقاط مختلف فضا متفاوت و متأثر از مقدار سایر مشخصه هـانیز باشد که همگی با استفاده از نقشه های SOM به خوبی قابـلنمایش و مشاهده هستند. در شـکل (۴) مـی توانیـد نمونـه ای از نقشه های SOM وکاربردهای شبکه های خودسازمان ده در تحلیل الگوهای پیچیده و نمـایش همزمـان اثـرات متقابـل متغیرهـایمختلف بر یکدیگر را مشاهده نمایید.
همان گونه که از شـکل (۴) مشـخص اسـت فضـای مـوردتحلیل دارای پنج بعد می باشد. از مقایسه نقشه هـای مـذکور بـایکدیگر اطلاعات زیادی از جمله موارد زیر قابل استنتاج است:
– متغیرهــای دوم و پــنجم و همچنــین متغیرهــای اول وچهارم در تمامی دامنه تغییرات خود دارای رابطـه و همبسـتگیمعکوس می باشند. گرچـه شـدت همبسـتگی متغیرهـای دوم وپنجم و در تمامی نقاط فضا تقریباﹰ ثابت است، اما ایـن نکتـه درمورد متغیر های اول و چهارم صادق نیست.
– متغیرهای سوم و پنجم نیـز دارای همبسـتگی معکـوسهستند اما شدت همبسـتگی آنهـا در تمـامی نقـاط فضـا ثابـتنمی باشد. همچنین شدت این همبستگی از شدت همبستگی بین متغیرهای دوم و پنجم کمتر است.
– متغیرهای دوم و سوم دارای همبستگی مستقیم انـد ولـیشدت همبستگی آنها وابسته به مقادیر سایر متغیرهاست.
– همبستگی متغیرهای اول، چهارم و پنجم کاملاﹰ غیرخطی ج بوده و شدت آن در نقاط مختلف فضا متفاوت است.

شکل ۵ – نمونه ای از یک ماتریس دست هبندی

-٣ -١ – ماتریس دسته بندی
از جمله دیگر خروجی های شبکه های خودسـازمان ده مـاتریسدسته بندی و متناظر با آن نقشه دسته بندی است. درایه هـای ایـنماتریس، فاصله جبری نرورن های همسایه از یکـدیگر را نشـانمی دهد. در صورتی که مشخصـات دو قسـمت از فضـای مـوردتحلیل به یکدیگر شبیه باشند، فاصـله جبـری بردارهـای وزنـینرون های متناظر با آنها کم خواهد بود و به عبارت دیگر هر دو نرون متعلق به خوشه واحدی از فضای مورد تحلیل هسـتند . در طرف مقابل هر مقدار فاصله جبری میـان نـرون هـای همسـایهبیشتر باشد، نشان دهنده تفاوت بیشـتر میـان فضـای متنـاظر بـاآنهاست لذا می توان آنها را در دو خوشه متفاوت قرار داد. شکل (۵) نمونه ای از یک ماتریس دسته بندی را با تعـدادی خوشـه وزیرخوشه از یک فضای دو بعدی را نشان می دهد.

– روش شبکه های عصبی مصنوعی(ANNs)
شبکه های عصبی مصنوعی از جمله رو شهایی هستند که قـادربـه تخمــین مـوارد غیرخطــی متعـدد در داده هــا بـوده و یــک چارچوب محاسبه ای انعطاف پذیر برای دامنه وسیعی از مسـائلغیرخطی می باشند. یکی از مزیت های بـارز ایـن گونـه مـدل هـانسبت به مدل های دیگر غیرخطی، ایـن اسـت کـه شـبکه هـایعصبی مصنوعی یک تقریب زننده جهانی هستند که می توانند هر نوع تابعی را با دقت دلخواه تقریب بزنند. این نـوع از شـبکه هـانیاز به هیچ گونه پـیش فرضـی در مـورد شـکل مـدل در فرآینـدمدل سازی نداشته و به طورکلی یک مدل مبتنی بر داده می باشـند [٣۵]. این گونه مدل ها از سه لایه پردازش ساده اطلاعات متصل به هم تشکیل شده اند. رابطـه بـین خروجـی (yt ) و ورودی هـا
:به صورت زیر است (x ,x ,…,x12p )
QP
yt

b0wj g(b0jwi,j x )it (۵)
به طوری که w ,wij j پارامترهای مدل بـوده کـه غالبـاﹰ وزن هـایاتصالی نامیده می شوند، P تعـداد گـره هـای ورودی وQ تعـدا د گره های مخفی هستند. تابع سیگموئیدی اغلـب بـه عنـوان تـابعفعال سازی لایه مخفی مورد استفاده قرار می گیرد: (۶)

= ( )g x
از اینرو مدل شبکه های عصبی مصنوعی رابطـه (٢) در حقیقـتبه عنوان یک نگاشت غیرخطی از مشـاهدات گذشـته بـه مقـدارآینده خواهد بود، یعنی: (۷) yt = f x ,x ,…,x ,w( 1 2 p )+εt
به طوری که W بردار همه پارامترها و f تابعی اسـت کـه توسـطساختار شبکه عصبی و وزن های اتصالی تعیین می گردد، از اینرو شبکه های عصبی معادل مدل خودرگرسیون غیرخطی هستند.
مدل ساده بیان شده توسط رابطـه (۵) دارای قـدرت تقریـببسیار زیادی می باشد، چرا که قادر است هر تابع دلخـواه را بـهشرط آنکه تعداد گره های مخفی (Q) به اندازه کافی بزرگ باشـدرا تقریب بزند. در عمل ساختار شبکه عصبی سـاده کـه تعـدادنرون کمتری در لایه مخفی دارد غالباﹰ در پیش بینی های خارج از نمونه بهتر عمل می کند و این بـه دلیـل دوری جسـتن از مسـئله برازش بیش از حـد اسـت کـه عمـدتﹰا در فرآینـد مـدل سـازیشبکه های عصبی رخ می دهد.
یک مدل بیش از حد برازش شده، برای داده هایی که در ساخت مدل (داده های آموزشی) استفاده شده اند بـرازش خـوبی نشـانمی دهد اما توانایی تعمـیم آن، بـرای داده هـای خـارج از نمونـهبسیار ضعیف است [٣۴]. انتخاب تعداد نرون های لایـه مخفـیوابسته به داده ها بوده و هیچ قانون سیستماتیکی به منظور تعیـیناین پارامتر در طراحی شبکه های عصبی وجود ندارد. علاوه بـراین، مرحله مهم دیگر مدل سازی شـبکه هـای عصـبی، انتخـابتعداد وقفه های موجـود در مشـاهدات بـه عنـو ان بـردار ورودیشبکه است که شاید مهم تـرین پـارامتر در طراحـی مـدل هـایشبکه های عصبی مصنوعی باشـد، زیـرا ایـن پـارامتر در تعیـینساختار خود همبسته غیرخطی سر یهای زمـانی نقـش اساسـیدارد. هیچ تئوری خاصی جهت انتخاب P وجود ندارد، از اینرو تجربه و آزمایشات، مشخص کننده مقدار مناسب P وQ خواهند بود. هنگامیکه یک ساختار شبکه ای P وQ مشخص شد شـبکهآماده آموزش فرآیند تخمین پارامترها است. همانند مـدل سـازیخودرگرسیون میانگین متحـرک انباشـته، پارامترهـا بـه گونـه ای تخمین زده می شوند که معیار دقت شبکه مانند میانگین مربعـاتخطا حداقل گردد. این فرآیند توسط الگوریتم های بهینـه سـازیغیرخطی همچون پس انتشار خطا انجام می شود.

۴ – روش ترکیبی پیشنهادی
شبکه های عصبی پرسپترون چندلایه برخلاف روش های سـنتیپیش بینی همچون رگرسیون، دارای محدودیت تعداد متغیرهـایورودی هستند. در روش هایی همچون رگرسیون عملکرد مـدلبا تعداد متغیرهای ورودی توضیح دهنده رابطه مسـتقیم غیراکیـددارد، به عبارت دیگر با افزایش تعداد متغیرهای توضـیح دهنـده،عملکرد مدل کاهش پیدا نخواهد کرد. اما در شبکه های عصـبیچندلایه پیشخور همچون پرسپترون هـای چندلایـه ایـن مسـئلهبرقرار نمی باشد. لذا مسئله تعیـین تعـداد متغیرهـای ورودی بـهشبکه به مسئله ای مهم و تأثیرگذار در طراحی شبکه های عصبی تبدیل شده است. هر چند قانون تعریـف شـده ای بـرای تعـدادورودی های شبکه، در مسائل مختلف تعیین نشده است، امـ ا در حالت کلی تعداد ورودی های شبکه به ساختار شبکه، الگـوریتمآموزش، پیچیدگی مسـئله مـورد نظـر و اخـتلالات موجـود درداده ها وابسته می باشد [٧].
در ادبیات موضوع، راه حل معمول برای مسـئله فـوق الـذکر،انتخاب تأثیرگذارترین متغیرهای ورودی بر مقدار تابع هـدف وحذف سایر متغیرها است [۴]. حال درنظر نگرفتن این متغیرهـادر ساختار نهایی شـبکه و عـدم توانـایی تحلیـل نـوع و میـزانتأثیرگذاری آنها بر متغیر وابسته، مشکلی است که از محبوبیـتشبکه های پرسپترون چندلایه در پیش بینی کاسته است. در روش ترکیبی پیشنهادی به جای حذف متغیرهایی با تأثیرگذاری کمتـر، این گونه از متغیرها با سایر متغیرهای تأثیرگذار هـم دسـته خـودترکیب می گردند. با ترکیب ورودی ها با یکدیگر، دیگر نـه تنهـامشکل تعداد ورودی ها را نخواهیم داشت، بلکه توانایی تحلیـلنوع و میزان تأثیرگذاری هـر یـک از متغیرهـا را نیـز بـه دسـتخواهیم آورد.
روش ترکیبی پیشنهادی در حالت کلی شامل چهـار مرحلـهاساسی زیر می باشد:
– تشخیص متغیرهای تأثیرگذار
– خوشه بندی متغیرهای تأثیرگذار

  • 1

دیدگاهتان را بنویسید