دانلود رایگان ترجمه مقاله آموزش الگوریتم بهینه سازی جستجو (ساینس دایرکت – الزویر ۲۰۱۷)
این مقاله انگلیسی ISI در نشریه الزویر در ۲۴ صفحه در سال ۲۰۱۷ منتشر شده و ترجمه آن ۳۹ صفحه بوده و آماده دانلود رایگان می باشد.
دانلود رایگان مقاله انگلیسی (pdf) و ترجمه فارسی (pdf + word) | |
عنوان فارسی مقاله: |
الگوریتم یادگیری بهینه سازی جستجوی عقبگرد و کاربردهای آن |
عنوان انگلیسی مقاله: |
Learning backtracking search optimisation algorithm and its application |
دانلود رایگان مقاله انگلیسی | |
دانلود رایگان ترجمه با فرمت pdf | |
دانلود رایگان ترجمه با فرمت ورد |
مشخصات مقاله انگلیسی و ترجمه فارسی | |
فرمت مقاله انگلیسی | |
سال انتشار | ۲۰۱۷ |
تعداد صفحات مقاله انگلیسی | ۲۴ صفحه با فرمت pdf |
نوع مقاله | ISI |
نوع نگارش | مقاله پژوهشی (Research article) |
نوع ارائه مقاله | ژورنال |
رشته های مرتبط با این مقاله | مهندسی کامپیوتر |
گرایش های مرتبط با این مقاله | مهندسی الگوریتم ها و محاسبات |
چاپ شده در مجله (ژورنال)/کنفرانس | علوم اطلاعات |
کلمات کلیدی | الگوریتم تکاملی – الگوریتم جستجوی عقبگرد – بهینه سازی مبتنی بر آموزش-یادگیری – آموزش شبکه های عصبی مصنوعی – مشکلات بهینه سازی |
کلمات کلیدی انگلیسی | Evolutionary algorithm – backtracking search algorithm – Teaching-learning–based optimisation – Artificial neural network training – Optimisation problems |
ارائه شده از دانشگاه | دانشکده فیزیک و اطلاعات الکترونیکی، دانشگاه عادی هوآیبی |
نمایه (index) | Scopus – Master Journal List – JCR |
شناسه شاپا یا ISSN | ۱۸۷۲-۶۲۹۱ |
شناسه دیجیتال – doi | https://doi.org/10.1016/j.ins.2016.10.002 |
لینک سایت مرجع | https://www.sciencedirect.com/science/article/abs/pii/S0020025516311513 |
رفرنس | دارای رفرنس در داخل متن و انتهای مقاله ✓ |
نشریه | الزویر – Elsevier |
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش | ۳۹ صفحه با فونت ۱۴ B Nazanin |
فرمت ترجمه مقاله | pdf و ورد تایپ شده با قابلیت ویرایش |
وضعیت ترجمه | انجام شده و آماده دانلود رایگان |
کیفیت ترجمه |
مبتدی (مناسب برای درک مفهوم کلی مطلب) |
کد محصول | F2396 |
بخشی از ترجمه |
۳٫ مراحل اصلی TLBO ۳٫۱ مرحله آموزش دهنده که x_(new.i) و x_(old.i) به ترتیب موقعیت های جدید و پیشین یادگیرنده iام می باشند و rand(•) عددی تصادفی در محدوده [۰ , ۱] می باشد. مکانیزم انتخاب حریصانه برای پذیرش بهتر x_(new.i) و x_(old.i) استفاده می شود. پس از آنکه موقعیت پذیرفته شود به مرحله یادگیرنده انتقال می یابد. ضریب آموزش T_F ، مقدار میانگین را برای تغییر داده شدن تعیین می کند. مقدار T_F بصورت ابتکاری بر روی ۱ یا ۲ تنظیم می شود. ۳٫۲ مرحله یادگیرنده ۴٫ LBSA ۴٫۲ جهش LBSA روش های یادگیری TBLO قبل از آنکه اصلاح شود در LBSA به کار رفته است . روش جدید شامل ۳ بخش می باشد. بخش اول، هر فرد دانش را از یک فرد تصادفی و از جمعیت حاضر ، مانند همان چیزی که در روش TBLO است یاد می گیرد. بخش دوم، هر فرد دانش را از بهترین فرد، که متفاوت از TBLO است یاد می گیرد زیرا از موقعیت میانگین جمعیت حاضر استفاده نمی شود. علاوه بر این، برای افزایش تنوع افراد تولید شده، اجتناب از بدترین فرد نسل حاضر در معادله بروز رسانی درنظر گرفته می شود. در مقابل TBLO، سه روش ذکر شده در LBSA را در یک معادله یکپارچه کرده است و هر فرد تنها یک F_E را در هر نسل کنترل می کند. ۴٫۳ تجزیه و تحلیل تنوع BSA و LBSA پارامترهای آموزش عبارتند از: مقدار جمعیت ۵۰ نفر است، شرط پایان الگوریتم حداکثر تعداد تکرار ها است، مقدار تکرار ۶۰۰۰ است، ابعاد توابع ۳۰ است و دو الگوریتم آزمایش شده بیش از ۳۰ بار بطور مستقل از هم اجرا شده اند. تغییرات تنوع میانگین در شکل ۱ نشان داده شده است و بیان می کند که تنوع میانگین LBSA نسبت به BSA بنیادی برای بسیاری از تکرارها بهتر است. این کار به LBSA کمک می کند تا براحتی از نقطه بهینه محلی دور شود. شکل ۱ (الف) و (ب) نشان می دهد که تنوع LSBA تقریبا نسبت به BSA بهتر است، و تنوع دو الگوریتم در تمام مسیر تکامل مرتعش می باشد. شکل ۱ (ج) و (د) نشان می دهند که تنوع LBSA نسبت به BSA در مرحله شروع تکامل بدتر می باشد اما نتایج مخالفی در آنافاز تکاملی بدست آمده است. شکل ۱ (ج) و (د) نشان می دهند که تنوع الگوریتم ها در پایان تکامل برای الگوریتم هایی که به نقطه بهینه محلی یا سراسری می رسند تقریبا بدون تغییر هستند. |