این مقاله انگلیسی در نشریه اسپرینگر در ۱۵ صفحه در سال ۱۹۹۰ منتشر شده و ترجمه آن ۲۲ صفحه بوده و آماده دانلود رایگان می باشد.
دانلود رایگان مقاله انگلیسی (pdf) و ترجمه فارسی (pdf + word) | |
عنوان فارسی مقاله: |
حافظه انجمنی: راهبردهای پیشرفته یادگیری |
عنوان انگلیسی مقاله: |
Associative Memory: Advanced Learning Strategies |
دانلود رایگان مقاله انگلیسی | |
دانلود رایگان ترجمه با فرمت pdf | |
دانلود رایگان ترجمه با فرمت ورد |
مشخصات مقاله انگلیسی و ترجمه فارسی | |
فرمت مقاله انگلیسی | |
سال انتشار | ۱۹۹۰ |
تعداد صفحات مقاله انگلیسی | ۱۵ صفحه با فرمت pdf |
نوع نگارش |
فصل کتاب (Book Chapter)
|
رشته های مرتبط با این مقاله | فیزیک – مهندسی کامپیوتر |
گرایش های مرتبط با این مقاله | فیزیک محاسباتی – مهندسی الگوریتم ها و محاسبات – هوش مصنوعی |
چاپ شده در مجله (ژورنال)/کنفرانس | فیزیک شبکه های عصبی |
کلمات کلیدی | ظرفیت حافظه – الگوی همبستگی – اتصال سیناپسی – حالت حافظه – قدرت سیناپسی |
کلمات کلیدی انگلیسی | Memory Capacity – Correlate Pattern – Synaptic Connection – Memory State – Synaptic Strength |
ارائه شده از دانشگاه | گروه فیزیک، دانشگاه دوک، دورهام، NC |
شناسه دیجیتال – doi | https://doi.org/10.1007/978-3-642-57760-4_10 |
لینک سایت مرجع | https://link.springer.com/chapter/10.1007/978-3-642-57760-4_10 |
رفرنس | دارای رفرنس در داخل متن و انتهای مقاله ✓ |
نشریه | اسپرینگر – Springer |
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش | ۲۲ صفحه با فونت ۱۴ B Nazanin |
فرمت ترجمه مقاله | pdf و ورد تایپ شده با قابلیت ویرایش |
وضعیت ترجمه | انجام شده و آماده دانلود رایگان |
کیفیت ترجمه |
مبتدی (مناسب برای درک مفهوم کلی مطلب) (ترجمه به صورت ناقص انجام شده است) |
کد محصول | F2237 |
بخشی از ترجمه |
به یک معنا این روال با یادگیری تکرارشونده بر طبق قاعده Hebb قابل درک است،که سیناپسی ها با مقدار۱/Nσ_i^μ σ_j^μ افزایش می یابند،همان طور که اغلب به عنوان پایداری لازم برای همه الگوهای ذخیره شده ضروری است.این روند یادآورتجربه یادگیری یک واژه جدید از زبان خارجی است که معمولا لازم است چندین باز آن کلمات را تکرار کنید تاوارد حافظه بلندمدت شما بشوند.همان طور که همه می دانید،این روش قطعا کارخواهد کرد،البته بعد از تکرار های زیاد آزاردهنده. سرعت همگرایی برای شبیه سازی نمونه ای با پارامترهای ĸ=۰٫۴۳ و δ=۰٫۰۱ و N=100 در شکل ۱۰٫۳ نشان داده شده است.تراکم(چگالی) ذخیره گاه α=۰٫۷۵ است یعنی ۷۵ الگو توسط شبکه ذخیره شده است.منحنی a به الگوریتم استاندارد(۱۰٫۲۸ ) اشاره دارد در حالی که منحنی های b و c به الگوریتم بهینه شده (۱۰٫۲۸) به ترتیب با تابع f_L و f_NL اشاره دارد.مزیت الگوریتم های تصحیح شده کاملا واضح است.عبارت تحلیلی برای سرعت همگرایی الگوریتم استاندارد (۱۰٫۲۵) با استفاده از[Op88] بدست آمده است،که نشان می دهد همگرایی به طور چشمگیری کند می شود وقتی تراکم حافظه به مقدار بحرانی نزدیک می شود. آستانه پایداری ĸ چقدر باید بزرگ انتخاب شود؟اگرĸ بسیار بزرگ انتخاب شود هیچ جوابی از شرط γ_i^μ>ĸ وجود ندارد.در نتیجه الگوریتم همگرا نخواهد شد.اگرĸ خیلی کوچک باشد الگوریتم (۱۰٫۲۵) به سرعت همگرا خواهد شدو الگوهای ذخیره شده پایدار خواهند بود؛اما محدوده جذب کوچک است و شبکه عصبی لزوما الگویی که کمی منحرف شده باشد را تشخیص نخواهد داد.مقدارمشخصی از تجربه برای پیدا کردن مجموعه ای بهینه از پارامترهای یادگیری لازم است.وابستگی شعاع متوسط جذب از الگوهای ذخیره شده به انتخاب ĸ توسط آبوت و کپلر مطالعه شدو مشخص شد که برای شبکه اشباع شده به R=0.1 در ĸ=۱ کاهش می یابد. ازبرنامه ASSO استفاده کنید(فصل ۲۲)برای یادگیری همه ۲۶ حرف الفبا با طرح های یادگیری بهبودیافته ۲-۵٫سرعت همگرایی و پایداری الگوها را در برابر اختلال و نوسانات گرمایی مقایسه کنید. ۱۰٫۲ قانون یادگیری خاص λ≪۱ انتخاب شده است.این روال فراموشی دو اثر مثبت دارد.بیشتر حالت های متعادل جعلی از شبکه “فراموش شدنی” هستند،چون آنها قبلا با تغییرات کوچک در پیوندهای سیناپسی ω_ij بی ثبات شده اند.علاوه بر آن ناحیه مختلف پایداری الگوهای ذخیره شده،در اندازه بسیار شبیه هم خواهد شد،چون آنهایی که پایداری بیشتری دارند اغلب بیشتر رخ می دهند نسبت به پیکربندی نهایی و بنابراین بیشتراز بقیه ضعیف تر می شوند. |