دانلود ترجمه مقاله شبکه های فشرده سازی و تحریک (آی تریپل ای ۲۰۱۸)

 

 

این مقاله انگلیسی ISI در نشریه آی تریپل ای در سال ۲۰۱۸ منتشر شده که ۱۳ صفحه می باشد، ترجمه فارسی آن نیز ۲۹ صفحه میباشد. کیفیت ترجمه این مقاله عالی بوده و به صورت کامل ترجمه شده است.

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

شبکه های فشرده سازی و تحریک

عنوان انگلیسی مقاله:

Squeeze-and-Excitation Networks

 

 

مشخصات مقاله انگلیسی 
نشریه آی تریپل ای – IEEE
سال انتشار ۲۰۱۸
فرمت مقاله انگلیسی pdf و ورد تایپ شده با قابلیت ویرایش
تعداد صفحات مقاله انگلیسی ۱۳ صفحه
نوع مقاله ISI
نوع ارائه مقاله کنفرانس
رشته های مرتبط با این مقاله مهندسی فناوری اطلاعات – مهندسی کامپیوتر
گرایش های مرتبط با این مقاله شبکه های کامپیوتری – اینترنت و شبکه های گسترده – مهندسی الگوریتم ها و محاسبات – هوش مصنوعی
چاپ شده در مجله (ژورنال) IEEE/CVF Conference on Computer Vision and Pattern Recognition
کلمات کلیدی طبقه بندی تصویر – شبکه های عصبی پیچشی – فشار و تحریک
کلمات کلیدی انگلیسی Squeeze-and-Excitation – Image representations – Attention – Convolutional Neural Networks
نویسندگان Jie Hu – Li Shen – Samuel Albanie – Gang Sun – Enhua Wu
شناسه شاپا یا ISSN ۲۵۷۵-۷۰۷۵
شناسه دیجیتال – doi https://doi.org/10.1109/TPAMI.2019.2913372
لینک سایت مرجع https://ieeexplore.ieee.org/document/8578843
بیس نیست
مدل مفهومی ندارد 
پرسشنامه ندارد 
متغیر ندارد 
فرضیه ندارد 
رفرنس دارای رفرنس در داخل متن و انتهای مقاله
کد محصول ۱۲۵۷۵

 

مشخصات و وضعیت ترجمه فارسی این مقاله 
فرمت ترجمه مقاله ورد تایپ شده با قابلیت ویرایش و pdf
وضعیت ترجمه ترجمه شده و آماده دانلود
کیفیت ترجمه عالی (مناسب استفاده دانشگاهی و پژوهشی)
تعداد صفحات ترجمه ۲۹ صفحه با فونت ۱۴ B Nazanin
ترجمه عناوین تصاویر و جداول ترجمه نشده است
ترجمه متون داخل تصاویر ترجمه نشده است
ترجمه متون داخل جداول ترجمه نشده است
ترجمه ضمیمه ندارد 
درج تصاویر در فایل ترجمه درج شده است  
درج جداول در فایل ترجمه درج شده است  
درج فرمولها و محاسبات در فایل ترجمه  به صورت عکس درج شده است
منابع داخل متن به صورت عدد درج شده است
منابع انتهای متن به صورت انگلیسی درج شده است

 

فهرست مطالب

چکیده

۱ مقدمه

۲ کارهای مرتبط

۳ بلوک‌های تحریک و فشار

۴ مدل و پیچیدگی محاسباتی

۵ آزمایش‌ها

۶ مطالعه فرسایشی

۷ نقش بلوک SE

۸ نتیجه‌گیری

منابع

 

بخشی از ترجمه

چکیده

بلوک مرکزی ساختار شبکه‌های عصبی پیچشی  (CNN) اپراتور پیچیدگی است که شبکه‌ها را قادر می‌سازد تا ویژگی‌های اطلاعاتی را با ادغام هر دوی اطلاعات کانال‌وار و فضا درون حوزه‌های پذیرنده محلی در هر لایه ایجاد کنند. طیف گسترده‌ای از تحقیقات پیشین، مولفه‌های فضایی این رابطه را بررسی کرده‌اند و به دنبال تقویت قدرت بازنمایی  یک CNN با بهبود کیفیت کدگذاری‌هایی  فضایی از طریق سلسله مراتب ویژگی‌های آن بوده‌اند. در عوض ما در این کار به بر رابطه کانال تمرکز می‌‌کنیم و یک واحد معماری جدید را پیشنهاد می‌دهیم که آن را با نام بلوک «فشردگی و تحریک» (SE) نام‌گذاری می‌کنیم که به شکل تطبیقی پاسخ‌های ویژگی‌های کانال‌وار را با مدل‌سازی صریح وابستگی‌های متقابل  بین کانال‌ها مجددا کالیبره می‌کند. ما ثابت می‌کنیم که این بلوک‌ها می‌توانند با یکدیگر انباشته شوند تا معماری SENet را تشکیل دهند که به طور کلی در مجموعه‌داده‌های  مختلف بسیار موثر است. سپس ما ثابت می‌کنیم که بلوک‌های SE سبب بهبود چشمگیری در عملکرد پیشرفته‌ترین CCNهای موجود با حداقل هزینه محاسبات اضافی خواهد شد. شبکه‌های فشار و تحریک، بنیاد طرح طبقه‌بندی  ما است که رتبه نخست را در ILSVRC 2017 کسب کرده است و سبب کاهش ۵ خطای برتر تا ۲۵۱ .۲% شده است و از برنده سال ۲۰۱۶ نیز با بهبود نسبی ۲۵% برتری دارد. مدل‌ها و کد طرح ما در لینک زیر روبرو در دسترس است: https://github.com/hujie-frank/SENet

 

۲ کارهای مرتبط

معماری‌های عمیق‌تر: VGGNets[11] و مدل‌های آغازین [۵] ثابت کردند که افزایش عمق یک شبکه می‌تواند به طور قابل توجهی کیفیت بازنمایی‌هایی را افزایش دهد که قادر به یادگیری هستند. با تنظیم توزیع ورودی‌ها به هر لایه، نرمال‌سازی دسته‌ای (BN) [6] ثبات را به فرآیند یادگیری در شبکه‌های عمیق می‌افزاید و سطوح بهینه‌سازی نرم‌تری را تولید می‌کند [۱۲]. بر اساس این کارها، RESNETS نشان دادند که امکان دارد به شکل عمیق‌تری یادگیری را داشت و از شبکه‌های قوی‌تری از طریق اتصالاتی فارغ از مبتنی بر هویت داشت [۱۳][۱۴]. شبکه‌های بزرگراه [۱۵] ساز و کار گیت‌سازی جدیدی برای تنظیم جریان اطلاعات را در طی میانبرهای اتصالات ارائه دادند. به دنبال این آثار، اصلاحاتی در مورد ارتباطات بین لایه‌های شبکه وجود دارد [۱۶]، [۱۷]، که نشان‌دهنده پیشرفت‌های قابل توجهی در خواص یادگیری و بازنمایی شبکه‌های عمیق است.

 

یک روش جایگزین، اما نسبتا نزدیک به محدوده مطالعاتی ما بر روی رویکردهایی به منظور بهبود شکل عملکرد عناصر محاسباتی موجود در شبکه متمرکز شده است. ثابت شده است که پیچیش‌های گروه‌بندی شده رویکردی محبوب برای افزایش اندازه تبدیلات آموخته شده است [۱۸]، [۱۹]. ترکیبات انعطاف‌پذیر‌تر از اپراتورها می‌توانند با پیچش‌های چند‌شاخه ای به دست آیند [۵]، [۶]، [۲۰]، [۲۱] که این قابلیت را می‌توان به عنوان توسعه طبیعی اپراتور گروه‌بندی در نظر گرفت. در کارهای قبلی، همبستگی‌های بین کانالی را معمولا به عنوان ترکیبی از ویژگی‌های جدید به صورت مستقل از ساختار فضایی در نظر می‌گرفتند [۲۲]، [۲۳] یا با استفاده از فیلترهای پیچشی استاندارد [۲۴] با پیچ ۱ × ۱، نگاشت می‌شدند. بخش عمده‌ای از این تحقیق بر هدف کاهش مدل و پیچیدگی محاسباتی تمرکز کرده است و منعکس‌کننده این ویژگی‌ است که روابط کانال را می‌توان به شکل ترکیبی از توابع نمونه‌ای ندانم‌گرا با حوزه‌های پذیرنده محلی فرموله‌سازی کرد. در مقابل ما ادعا می‌کنیم که با ارائه واحدی با ساز و کاری برای مدل‌سازی صریح پویا، وابستگی‌های متقابل غیرخطی بین کانال‌ها با استفاده از اطلاعات جهانی، می‌توانیم فرآیند یادگیری را تسهیل ببخشیم و به طور چشمگیری قدرت بازنمایی شبکه را بهبود ببخشیم.

 

جستجوی معماری الگوریتمی: در راستای کارهایی که در بالا شرح داده شد، تاریخچه‌ای غنی وجود دارد که هدف آن چشمپوشی از طراحی معماری دستی است و به جای آن به دنبال ساخت ساختار شبکه به شکلی خودکار است. بسیاری از کارهای اولیه در این حوزه در حوزه تکامل نورونی بوده است که رویکردهایی برای جستجوی توپولوژی‌های شبکه را با روشهای تکاملی ایجاد کرده است [۲۵]، [۲۶]. در حالیکه اغلب تقاضاهای محاسباتی جستجوی تکاملی موفقیت‌های قابل توجهی را به همراه داشت که شامل یافتن سلول‌های حافظه مناسبی برای مدلهای توالی [۲۷]، [۲۸] و یادگیری معماری پیچیده برای طبقه‌بندی تصویر ‌بزرگتر بوده است [۲۹] – [۳۱]. با هدف کاهش بار محاسباتی این روش‌ها، جایگزین‌های کارآمدی برای این رویکرد بر مبنای وراثت لامارکیسم [۳۲] و جستجوی معماری تمایزی [۳۳] پیشنهاد شده است.

 

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا