این مقاله انگلیسی ISI در نشریه آی تریپل ای در سال 2017 منتشر شده که 10 صفحه می باشد، ترجمه فارسی آن نیز 22 صفحه میباشد. کیفیت ترجمه این مقاله عالی بوده و به صورت کامل ترجمه شده است.
دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی | |
عنوان فارسی مقاله: |
در مورد فشرده سازی مدل های عمیق با رتبه پایین و تجزیه کم رتبه |
عنوان انگلیسی مقاله: |
On Compressing Deep Models by Low Rank and Sparse Decomposition |
|
مشخصات مقاله انگلیسی | |
نشریه | آی تریپل ای – IEEE |
سال انتشار | 2017 |
فرمت مقاله انگلیسی | |
تعداد صفحات مقاله انگلیسی | 10 صفحه |
نوع مقاله | ISI |
نوع ارائه مقاله | کنفرانس |
رشته های مرتبط با این مقاله | مهندسی کامپیوتر |
گرایش های مرتبط با این مقاله | هوش مصنوعی – مهندسی الگوریتم ها و محاسبات |
چاپ شده در مجله (ژورنال) | IEEE Conference on Computer Vision and Pattern Recognition |
نویسندگان | Xiyu Yu – Xinchao Wang – Dacheng Tao |
شناسه شاپا یا ISSN | 1063-6919 |
شناسه دیجیتال – doi | https://doi.org/10.1109/CVPR.2017.15 |
لینک سایت مرجع | https://ieeexplore.ieee.org/document/8099498 |
ایمپکت فاکتور (IF) مجله | 21.762 در سال 2023 |
شاخص H_index مجله | 531 در سال 2024 |
شاخص SJR مجله | 10.331 در سال 2023 |
بیس | نیست ☓ |
مدل مفهومی | ندارد ☓ |
پرسشنامه | ندارد ☓ |
متغیر | ندارد ☓ |
فرضیه | ندارد ☓ |
رفرنس | دارای رفرنس در داخل متن و انتهای مقاله ✓ |
کد محصول | 12636 |
مشخصات و وضعیت ترجمه فارسی این مقاله | |
فرمت ترجمه مقاله | ورد تایپ شده با قابلیت ویرایش و pdf |
وضعیت ترجمه | ترجمه شده و آماده دانلود |
کیفیت ترجمه | عالی (مناسب استفاده دانشگاهی و پژوهشی) |
تعداد صفحات ترجمه | 22 صفحه با فونت 14 B Nazanin |
ترجمه عناوین تصاویر و جداول | ترجمه شده است ✓ |
ترجمه متون داخل تصاویر | ترجمه شده است ✓ |
ترجمه متون داخل جداول | ترجمه شده است ✓ |
ترجمه ضمیمه | ندارد ☓ |
درج تصاویر در فایل ترجمه | درج شده است ✓ |
درج جداول در فایل ترجمه | درج شده است ✓ |
درج فرمولها و محاسبات در فایل ترجمه | به صورت عکس درج شده است ✓ |
منابع داخل متن | به صورت عدد درج شده است ✓ |
منابع انتهای متن | به صورت انگلیسی درج شده است ✓ |
فهرست مطالب |
چکیده |
بخشی از ترجمه |
چکیده 2- کار مرتبط با این حال، رویکرد ما دارای دو مزیت عمده است [8]. نخست، به دلیل شرایط بازسازی نقشه ویژگی ما، مدل ما مقداردهی اولیه بهتری برای آموزش مجدد را فراهم میسازد. ما معمولا میتوانیم همه لایههای پیچشی را در مدلهایی مانند AlexNet و VGG-16 به جای تکرار هرس و آموزش مجدد در یک دور فشرده کنیم. دوما با بهرهگیری از هر دوی مولفه هموار و وزنهای مهم، ما وزنهای دیگری را در لایه های پیچشی کاهش میدهیم و مولفههای حاصل از آنها بسیار ضعیفتر از آنچه است که در [8] وجود داشته است. این مقدار بالقوه برای شتابدهی مراحل استنتاج در مدلهای عمیق است. فشردهسازی با تقریب رتبه پایین: کاهش ابعاد پارامترها به وسیله تقریب رتبهپایین سبب حفظ فضای ذخیرهسازی میشود و در عین حال سبب کاهش پیچیدگی زمانی در حین آموزش و تست میشود. بیشتر روشها [4، 12] به تخمین یک تانسور با کمینهسازی خطای بازسازی پارامترهای اصلی میپردازند. با این حال، این رویکردها هنگامی که لایههای چندگانه فشرده به صورت متوالی تکرار میشوند، خطاهای تجمعی دارند، و نقشههای ویژگیهای خروجی از مقادیر اولیه با افزایش لایه های فشردهشده فاصله میگیرند. |