دانلود رایگان ترجمه مقاله آموزش الگوریتم بهینه سازی جستجو (ساینس دایرکت – الزویر 2017)

 

 

این مقاله انگلیسی ISI در نشریه الزویر در 24 صفحه در سال 2017 منتشر شده و ترجمه آن 39 صفحه بوده و آماده دانلود رایگان می باشد.

 

دانلود رایگان مقاله انگلیسی (pdf) و ترجمه فارسی (pdf + word)
عنوان فارسی مقاله:

الگوریتم یادگیری بهینه سازی جستجوی عقبگرد و کاربردهای آن

عنوان انگلیسی مقاله:

Learning backtracking search optimisation algorithm and its application

دانلود رایگان مقاله انگلیسی
دانلود رایگان ترجمه با فرمت pdf
دانلود رایگان ترجمه با فرمت ورد

 

مشخصات مقاله انگلیسی و ترجمه فارسی
فرمت مقاله انگلیسی pdf
سال انتشار 2017
تعداد صفحات مقاله انگلیسی 24 صفحه با فرمت pdf
نوع مقاله ISI
نوع نگارش مقاله پژوهشی (Research article)
نوع ارائه مقاله ژورنال
رشته های مرتبط با این مقاله مهندسی کامپیوتر
گرایش های مرتبط با این مقاله مهندسی الگوریتم ها و محاسبات
چاپ شده در مجله (ژورنال)/کنفرانس علوم اطلاعات
کلمات کلیدی الگوریتم تکاملی – الگوریتم جستجوی عقبگرد – بهینه سازی مبتنی بر آموزش-یادگیری – آموزش شبکه های عصبی مصنوعی – مشکلات بهینه سازی
کلمات کلیدی انگلیسی Evolutionary algorithm – backtracking search algorithm – Teaching-learning–based optimisation – Artificial neural network training – Optimisation problems
ارائه شده از دانشگاه دانشکده فیزیک و اطلاعات الکترونیکی، دانشگاه عادی هوآیبی
نمایه (index) Scopus – Master Journal List – JCR
شناسه شاپا یا ISSN 1872-6291
شناسه دیجیتال – doi https://doi.org/10.1016/j.ins.2016.10.002
لینک سایت مرجع https://www.sciencedirect.com/science/article/abs/pii/S0020025516311513
رفرنس دارای رفرنس در داخل متن و انتهای مقاله
نشریه الزویر – Elsevier
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  39 صفحه با فونت 14 B Nazanin
فرمت ترجمه مقاله pdf و ورد تایپ شده با قابلیت ویرایش
وضعیت ترجمه انجام شده و آماده دانلود رایگان
کیفیت ترجمه

مبتدی (مناسب برای درک مفهوم کلی مطلب) 

کد محصول F2396

 

بخشی از ترجمه

3. مراحل اصلی TLBO
TLBO نیز مانند EA مبتنی بر جمعیت می باشد که فلسفه آموزش و یادگیری در یک گروه را تقلید می کند. دو مرحله اصلی در TLBO وجود دارد: که مرحله آموزش دهنده و مرحله یادگیرنده می باشند. از آنجا که تنها ایده های یادگیری در الگوریتم پیشنهادی یادگیری BSA (LBSA) استفاده می شود، تنها دو مرحله اصلی الگوریتم TLBO در این بخش شرح داده شده است.

3.1 مرحله آموزش دهنده
در مرحله آموزش دهنده، آموزش دهنده دانش خود برای همه ی یادگیرنده ها در گروه توزیع می کند و یادگیرنده ها موقعیت خود را با توجه به آموزش دهنده و موقعیت میانگین گروه حاضر بروز رسانی می کنند. یادگیرنده با بهترین برازش برای آموزش دهنده شدن انتخاب می شود. برای یک مسئله بهینه سازی با ابعاد D، فرض کنید موقعیت یادگیرنده iام X_i={x_1.x_2.….x_(i.D)} باشد، که در آن x_mean نشان دهنده راه حل میانگین گروه حاضر است و x_teacher نشان هنده موقعیت آموزش دهنده می باشد. یادگیرنده iام موقعیت خود را باتوجه به تفاوت بین آموزش دهنده و موقعیت میانگین بروز رسانی می شود

که x_(new.i) و x_(old.i) به ترتیب موقعیت های جدید و پیشین یادگیرنده iام می باشند و rand(•) عددی تصادفی در محدوده [0 , 1] می باشد. مکانیزم انتخاب حریصانه برای پذیرش بهتر x_(new.i) و x_(old.i) استفاده می شود. پس از آنکه موقعیت پذیرفته شود به مرحله یادگیرنده انتقال می یابد. ضریب آموزش T_F ، مقدار میانگین را برای تغییر داده شدن تعیین می کند. مقدار T_F بصورت ابتکاری بر روی 1 یا 2 تنظیم می شود.

3.2 مرحله یادگیرنده
در هر تکرار، یادگیرنده k ام بصورت تصادفی به عنوان هدف یادگیری، یادگیرنده i ام انتخاب می شود. روش یادگیری، یادگیرنده i ام می تواند بصورت ریاضی به شرح زیر بیان شود: که x_(new.i)، موقعیت جدید فرد i ام است و x_(old.i) و x_(old.k) ، به ترتیب موقعیت های پیشین i ام و k ام یادگیرنده ها هستند. علاوه بر این، اگر برازش x_(new.i) نسبت به x_(old.i) بهتر باشد x_(new.i) پذیرفته می شود. ساختار TLBO ساده می باشد و از طرفی پارامترهایی که باید در معادلات بروز رسانی از پیش تعیین شده باشند در این الگوریتم وجود ندارد. به همین دلیل از این الگوریتم بطور گسترده برای حل مسائل بهینه سازی که داری قطعیت می باشند استفاده می شود. با این حال، این الگوریتم نیز دارای دو عیب می باشد. عیب اول آن است که دو F_E برای هر فرد در هر نسل وجود دارد و از این رو هزینه محاسبه یک نسل نسبت به الگوریتمی با یک F_E برای هر فرد در هر نسل بزرگتر است. عیب دوم آن است که دانش یادگیری از بهترین یادگیرنده ها و دو گزینش حریصانه از یک فرد ممکن است تنوع جمعیت را به سرعت کاهش دهد. به منظور بهبود عملکرد BSA، مکانیزمی برای یادگیری TLBO و یک عملگر مقابله کننده برای بهبود تنوع جمعیت در این مقاله پیشنهاد شده است. علاوه بر این، تنها یک F_E از هر فرد در یک نسل وجود دارد، که در بخش بعدی توضیح داده می شود.

4. LBSA
4.1 انگیزه
انگیزه اصلی در ایجاد LBSA ، ترکیب ایده های یادگیری TLBO در BSA بنیادی برای بهبود عملکرد سراسری آن است. در الگوریتم BSA اولیه، زمانی که تنوع جمعیت در آنافاز ( مرحله‌ای از تقسیم میتوز ، که در آن دو نوار سازنده کروموزوم ، از هم جدا می‌شوند) تکاملی تضعیف می شود، توانایی تکامل افراد شروع به ضعیف شدن می کند. این پدیده فرد را از پیدا کردن بهینه سازی سراسری منصرف می کند. علاوه بر این، این عمل نشان می دهد که عملگر یادگیری می تواند سازگاری جمعیت را بهبود بخشد و یادگیری از بهترین فرد می تواند سرعت همگرایی الگوریتم را بهبود دهد و همچنین ظرفیت بهره برداری از الگوریتم را افزایش دهد. در هر حال، این پدیده تنوع جمعیت و ظرفیت شناسایی الگوریتم را با سرعت همگرائی سریعی کاهش خواهد داد. چگونگی افزایش توانایی شناسایی الگوریتم از طریق بهبود تنوع جمعیتی با اصلاح فرآیند بروز رسانی افراد برای بهبود ویژگی های کلی الگوریتم بهینه سازی بسیار مهم می باشد. از این رو، LBSA پیشنهادی عملکرد سراسری BSA بنیادی را توسط اصلاح فرآیند های جهشی بهبود می بخشد.

4.2 جهش LBSA
در BSA بنیادی، تنها از اطلاعات پیشین و موقعیت فعلی یک فرد برای تولید موقعیت جدید استفاده می شود. در این الگوریتم افراد نمی توانند دانش را از آموزش دهنده کل گروه یادبگیرند. برخی از روش های EA که می توانند بهترین فرد را ردیابی می کنند ممکن است سرعت همگرائی الگوریتم را افزایش دهند. برای بهبود توانایی یادگیری BSA، هدایت کننده یادگیری بهترین فرد را در فرآیند جهش الگوریتم معرفی می کند.

روش های یادگیری TBLO قبل از آنکه اصلاح شود در LBSA به کار رفته است . روش جدید شامل 3 بخش می باشد. بخش اول، هر فرد دانش را از یک فرد تصادفی و از جمعیت حاضر ، مانند همان چیزی که در روش TBLO است یاد می گیرد. بخش دوم، هر فرد دانش را از بهترین فرد، که متفاوت از TBLO است یاد می گیرد زیرا از موقعیت میانگین جمعیت حاضر استفاده نمی شود. علاوه بر این، برای افزایش تنوع افراد تولید شده، اجتناب از بدترین فرد نسل حاضر در معادله بروز رسانی درنظر گرفته می شود. در مقابل TBLO، سه روش ذکر شده در LBSA را در یک معادله یکپارچه کرده است و هر فرد تنها یک F_E را در هر نسل کنترل می کند.

4.3 تجزیه و تحلیل تنوع BSA و LBSA
به منظور بررسی تنوع، BSA بنیادی با عملگرهای اصلاح شده بهبود یافته اند و توابع F5 , F6 , F9 و F15 در CEC2005 برای آزمایش تغییر تنوع به عنوان نسل های افزایشی استفاده شده اند. بسیاری از اندازه گیرهای گوناگون، مانند SPD، HPD [38] ، روش های مبتنی بر میانگین فاصله همینگ (Hamming) همه ی افراد، فاصله بین موقعیت همه ی افراد و موقعیت مرکزی جمعیت و آنتروپی [4] وجود دارند. به سادگی و بطور مستقیم تنوع BSA و LBSA تجزیه و تحلیل می شود، روشی ساده شده براساس متوسط فاصله همینگ همه افراد در این مقاله انتخاب شده است. برای مقایسه منصفانه تنوع الگوریتم های BSA و LBSA، فاصله بین دو فرد در محدوده [0 , 1] نرمال سازی می شود.

پارامترهای آموزش عبارتند از: مقدار جمعیت 50 نفر است، شرط پایان الگوریتم حداکثر تعداد تکرار ها است، مقدار تکرار 6000 است، ابعاد توابع 30 است و دو الگوریتم آزمایش شده بیش از 30 بار بطور مستقل از هم اجرا شده اند. تغییرات تنوع میانگین در شکل 1 نشان داده شده است و بیان می کند که تنوع میانگین LBSA نسبت به BSA بنیادی برای بسیاری از تکرارها بهتر است. این کار به LBSA کمک می کند تا براحتی از نقطه بهینه محلی دور شود. شکل 1 (الف) و (ب) نشان می دهد که تنوع LSBA تقریبا نسبت به BSA بهتر است، و تنوع دو الگوریتم در تمام مسیر تکامل مرتعش می باشد. شکل 1 (ج) و (د) نشان می دهند که تنوع LBSA نسبت به BSA در مرحله شروع تکامل بدتر می باشد اما نتایج مخالفی در آنافاز تکاملی بدست آمده است. شکل 1 (ج) و (د) نشان می دهند که تنوع الگوریتم ها در پایان تکامل برای الگوریتم هایی که به نقطه بهینه محلی یا سراسری می رسند تقریبا بدون تغییر هستند.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا