دانلود ترجمه مقاله یادگیری عملکرد افزایشی برای داده های بسیار بزرگ (ساینس دایرکت – الزویر 2016) (ترجمه ویژه – طلایی ⭐️⭐️⭐️)

 

 

این مقاله انگلیسی ISI در نشریه ساینس دایرکت (الزویر) در 13 صفحه در سال 2016 منتشر شده و ترجمه آن 31 صفحه میباشد. کیفیت ترجمه این مقاله ویژه – طلایی ⭐️⭐️⭐️ بوده و به صورت کامل ترجمه شده است.

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

نمونه برداری هوشمند و یادگیری عملکرد افزایشی برای داده های بسیار بزرگ با ابعاد بالا

عنوان انگلیسی مقاله:

Smart sampling and incremental function learning for very large high dimensional data

 

 

مشخصات مقاله انگلیسی
فرمت مقاله انگلیسی pdf
سال انتشار 2016
تعداد صفحات مقاله انگلیسی 13 صفحه با فرمت pdf
نوع مقاله ISI
نوع نگارش مقاله پژوهشی (Research Article) 
نوع ارائه مقاله ژورنال
رشته های مرتبط با این مقاله مهندسی کامپیوتر
گرایش های مرتبط با این مقاله رایانش ابری، هوش مصنوعی
چاپ شده در مجله (ژورنال) شبکه های عصبی – Neural Networks
کلمات کلیدی شبکه های عصبی، تقریب تابع با ابعاد بالا،‌ اختلاف نمونه برداری، طرح آزمایشات، محاسبات احتمالی و تقریبی صحیح، یادگیری تابع
کلمات کلیدی انگلیسی  High dimensional function approximation – Sampling discrepancy – Design of experiments – Probably approximately correct computation – Function learning – Neural networks
ارائه شده از دانشگاه مرکز هوافضای آلمان (DLR) ، اوبرپفافنهافن ، آلمان
نمایه (index) Scopus – Master journals – JCR – MedLine
نویسندگان Diego G. Loyola R، Mattia Pedergnana، Sebastián Gimeno García
شناسه شاپا یا ISSN ISSN 0893-6080
شناسه دیجیتال – doi https://doi.org/10.1016/j.neunet.2015.09.001
ایمپکت فاکتور(IF) مجله 6.596 در سال 2019
شاخص H_index مجله 128 در سال 2020
شاخص SJR مجله 1.970 در سال 2019
شاخص Q یا Quartile (چارک) Q1 در سال 2019
بیس نیست 
مدل مفهومی ندارد 
پرسشنامه ندارد 
متغیر ندارد 
رفرنس دارای رفرنس در داخل متن و انتهای مقاله
کد محصول 10431
لینک مقاله در سایت مرجع لینک این مقاله در نشریه Elsevier
نشریه الزویر

 

مشخصات و وضعیت ترجمه فارسی این مقاله
فرمت ترجمه مقاله pdf و ورد تایپ شده با قابلیت ویرایش
وضعیت ترجمه انجام شده و آماده دانلود
کیفیت ترجمه ویژه – طلایی ⭐️⭐️⭐️
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  31 صفحه (2 صفحه رفرنس انگلیسی) با فونت 14 B Nazanin
ترجمه عناوین تصاویر و جداول ترجمه شده است  
ترجمه متون داخل تصاویر ترجمه شده است  
ترجمه متون داخل جداول ترجمه شده است  
درج تصاویر در فایل ترجمه درج شده است  
درج جداول در فایل ترجمه درج شده است  
درج فرمولها و محاسبات در فایل ترجمه  به صورت عکس درج شده است  
منابع داخل متن به صورت فارسی درج شده است  
منابع انتهای متن به صورت انگلیسی درج شده است  

 

فهرست مطالب

چکیده
1- مقدمه
2- روش های نمونه برداری داده ها
2-1- روش های تصادفی
2-2- روش های قطعی
2-3- روش های هندسی
2-4- روش های ترکیبی
2-5- نمونه برداری در فضای با ابعاد بالا
2-6- توزیع غیر یکنواخت نمونه برداری
2-7- نمونه برداری اهمیت
3- مقایسه روش های نمونه برداری
3-1- توابع معیار
3-2- اختلاف به عنوان معیاری از یکنواختی در فضای ورودی
3-3- معیارهای آماری تابع پاسخ در فضای خروجی
4- الگوریتم نمونه برداری هوشمند و یادگیری تابع افزایشی
4-1- مرحله مقداردهی اولیه
4-2- نمونه برداری هوشمند در خلال مقداردهی اولیه
4-3- نمونه برداری هوشمند در خلال تکرار
4-4- یادگیری تابع افزایشی
4-5- بررسی همگرایی
4-6- تعیین سطح دقت و اطمینان تقریب زننده
5- نتایج
5-1- رگرسیون تابع معیار فضای ورودی 5 بُعدی
5-2- رگرسیون تابع معیار فضای ورودی 100 بُعدی
5-3- رگرسیون تابع فضای خروجی 62 بُعدی حاصل از یک مساله دنیای واقعی
5-4- رگرسیون تابع فضای ورودی 280 بُعدی حاصل از یک مساله در دنیای واقعی
6- نتیجه گیری ها

 

بخشی از ترجمه

چکیده

داده های بسیار بزرگ و با ابعاد بالا امروزه شایع بوده و چالش های جدیدی را بر الگوریتم های داده محور و داده فشرده تحمیل می نمایند. تکنیک های هوش محاسباتی از توانایی بالقوه ارائه ابزارهای قدرتمند برای پرداختن به این چالش ها برخوردارند اما ادبیات حاضر عمدتاً بر مسائل مقیاس پذیری مربوط به حجم داده ها بر حسب اندازه نمونه در راستای امور طبقه بندی متمرکز است.
کار حاضر رویکرد نظام مند و جامعی را برای پرداختن بهینه به امور رگرسیون با داده های بسیار بزرگ و با ابعاد بالا ارائه می نماید. رویکرد پیشنهادی مبتنی بر تکنیک های نمونه برداری هوشمند به منظور تقلیل تعداد نمونه های تولیدی با استفاده از یک رویکرد تکرار شونده می باشد که مجموعه نمونه های جدیدی را تا زمانی که فضای ورودی و خروجی تابع تقریبی به صورت بهینه پوشش داده شوند، ایجاد می نماید. یادگیری تابع افزایشی در هر تکرار نمونه برداری رخ داده و از نمونه های جدید برای هماهنگ سازی نتایج رگرسیون الگوریتم یادگیری تابع استفاده می شود. سطح دقت و اطمینان تابع تقریب حاصله با استفاده از چارچوب محاسبات احتمالی و تقریبی صحیح ارزیابی می گردد.
تکنیک های نمونه برداری هوشمند و یادگیری تابع افزایشی را به راحتی می توان در برنامه های کاربردی به کار برد مقیاس پذیری مناسبی در داده های بسیار بزرگ دارند. نتایج مطلوب و امکان سنجی تکنیک های پیشنهادی با استفاده از توابع معیار و نیز توابع حاصل از مسائل دنیای واقعی مشخص گردیده است.

 

6- نتیجه گیری ها

در این مقاله یک رویکرد نوینی (SSIFL) را برای محاسبه مدل رگرسیون ارائه نمودیم که توابع تعریف شده در فضاهای با ابعاد بالا را با دقت تقریب می زند. این امر منوط به کمینه سازی تعداد فراخوانی تابع هدف در تولید داده های آموزشی حاصل می گردد. ما هوشمندانه روش ها و ابزارهای عمیق نظری را که قبلا منتشر شده بودند در یک الگوریتم یادگیری تابع و نمونه برداری عملی با هم ترکیب نموده و کاربردپذیری تکنیک پیشنهاد شده را برای مسائل مربوط به رگرسیون با ابعاد بالا نشان دادیم. روش نمونه برداری مورد استفاده برای تولید مجموعه داده آموزشی نقش کلیدی را در دستیابی به عملکرد بالای مدل رگرسیون ایفا می کند. روش های مختلف نمونه برداری ارزیابی شده و به طور نظام مند در این مطالعه مورد تجزیه و تحلیل قرار گرفتند. پس از تجزیه و تحلیل جامع متمایز، در این مقاله نشان دادیم که توالی نمونه LCVT و HA در داده گردانی در بُعدچندی بالا، توالی برتر بوده و به همین دلیل در میان کلیه تکنیک های یگر برای تکنیک نمونه برداری هوشمند پیشنهادی انتخاب شدند. با این حال، به دلیل اقدامات محاسباتی بالای مورد نیاز برای محاسبه توالی، استفاده از روش HA در فضاهای بُعدی بسیار بالا راحت تر بوده و در این مطالعه نیز دستاوردهای خوبی از نظر زمان محاسباتی معقول حاصل آمده است.

 

بخشی از مقاله انگلیسی

Abstract

Very large high dimensional data are common nowadays and they impose new challenges to data-driven and data-intensive algorithms. Computational Intelligence techniques have the potential to provide powerful tools for addressing these challenges, but the current literature focuses mainly on handling scalability issues related to data volume in terms of sample size for classification tasks.
This work presents a systematic and comprehensive approach for optimally handling regression tasks with very large high dimensional data. The proposed approach is based on smart sampling techniques for minimizing the number of samples to be generated by using an iterative approach that creates new sample sets until the input and output space of the function to be approximated are optimally covered. Incremental function learning takes place in each sampling iteration, the new samples are used to fine tune the regression results of the function learning algorithm. The accuracy and confidence levels of the resulting approximation function are assessed using the probably approximately correct computation framework.
The smart sampling and incremental function learning techniques can be easily used in practical applications and scale well in the case of extremely large data. The feasibility and good results of the proposed techniques are demonstrated using benchmark functions as well as functions from real-world problems.

6- Conclusions

In this paper we presented a novel approach (SSIFL) for computing a regression model that accurately approximates functions defined over high dimensional input spaces. This has been achieved under the constraint of minimizing the number of calls to the target function for generating the training data. We smartly combine previously published deep theoretical methods and tools into a practical sampling and function learning algorithm and we showed the applicability of the proposed technique to high-dimensional regression problems. The sampling method used for generating the training dataset plays a key-role in order to reach high performance of the regression model. Different sampling methods have been evaluated and systematically analyzed in this study. Following a comprehensive discrimination analysis, in this paper we showed that the LCVT and HA sampling sequences are superior in handling data in high dimensionality and therefore they have been selected among all the other techniques for the proposed smart sampling technique. However, due to high computational effort needed for calculating the sequence, it might be more convenient to use the HA method in very high dimensional spaces, which has been already pointed out in this study to reach good achievements in reasonable computational time.

دکمه بازگشت به بالا