دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
|
|
عنوان فارسی مقاله: |
تابع هدف جدید محدب برای آموزش نظارت شبکههای عصبی تک لایه |
عنوان انگلیسی مقاله: |
A new convex objective function for the supervised learning of single-layer neural networks |
|
مشخصات مقاله انگلیسی و ترجمه فارسی | |
سال انتشار | 2010 |
تعداد صفحات مقاله انگلیسی | 9 صفحه با فرمت pdf |
تعداد صفحات ترجمه مقاله | 28 صفحه با فرمت word به صورت تایپ شده با قابلیت ویرایش |
رشته های مرتبط با این مقاله | مهندسی کامپیوتر و ریاضی |
گرایش های مرتبط با این مقاله | هوش مصنوعی و ریاضی کاربردی |
مجله | الگو شناسی (Pattern Recognition) |
دانشگاه | آزمایشگاه تحقیق و توسعه در هوش مصنوعی (لیدیا)، گروه علوم کامپیوتر، دانشکده انفورماتیک، دانشگاه A Corun˜a، اسپانیا |
کلمات کلیدی | شبکه های عصبی تک لایه، بهینه جهانی، روش یادگیری نظارت شده، کمترین مربعات، بهینه سازی محدب، یادگیری افزایشی |
شناسه شاپا یا ISSN | ISSN 0031-3203 |
رفرنس | دارد |
لینک مقاله در سایت مرجع | لینک این مقاله در نشریه Elsevier |
نشریه الزویر | Elsevier |
- بخشی از ترجمه:
چکیده
چکیده:در این مقاله روش آموزش نظارت جدید برای ارزیابی چگونگی شبکههای Feed Forward عصبی تکلایه ارائه میشود. این روش از تابع هدفی بر مبنایMSE استفاده میکند، که خطاها را به جای این که پس از تابع فعالسازی غیرخطی نورونها ارزیابی کند قبل از آنها بررسی میکند. در این گونه موارد، راهحل را میتوان به سهولت از طریق حل معادلات در سیستمهای خطی بهدست آورد یعنی در این روش نسبت به روشهای معین و مرسوم پیشین به محاسبات کمتری نیاز است. تحقیقات تئوری شامل اثبات موازنههای تقریبی بین بهینه ستزی سراسری تابع هدف بر مبنای معیارMSE و یک تابع پیشنهادی دیگر میباشد. بعلاوه مشخص شده است که این روش قابلیت توسعه و توزیع آموزش را دارا میباشد. طی تحقیقات تجربی جامع نیز تنوع صحت در انرمان این روش مشخص شده است. این تحقیق شامل ١٠ دستهبندی و ١۶ مسئلهی بازگشتی میباشد. بعلاوه، مقایسه این روش با دیگر الگوریتمهای آموزشی با عملکرد بالا نشان میدهد که روش مذکور بطور متوسط بیشترین قابلیت اجرایی را داشته و به حداقل محاسبات در این روش نیاز میباشد
مقدمه
برای بررسی شبکه عصبیFeed Forward تکلایه با تابع فعالسازی خطی، مقادیر وزن برای تابع بهMSE حداقل رسیده و میتوان این مقادیر را به وسیله یک ماتریس شبهمعکوس بدست آورد[١,٢] . بعلاوه، میتوان اثبات کرد که سطح MSE این شبکه خطی تابعی درجه دوم میباشد [٣] . بنابراین این سطحمحدب هایپر پارابولیک( فراسهمیوار) را میتوان به سادگی با روش گرادیان نزولی (Gradient descent) طی کرد. با این حال، اگر ازتابع فعالسازی غیر خطی استفاده شود، مینیممهای محلی میتوانند بر مبنای معیارMSE در تابع هدف دیده شوند[۴-۶]. طی تحقیقات مختلف میتوان مشاهده نمود که تعداد چنین مینیممهایی میتوانند با ابعاد ورودی به صورت نمایی توسعه پیدا کند. تنها در برخی موارد خاص میتوان تضمین کرد که شرایط حاکم، فاقدMin های محلی هستند. در مورد الگوهای تفکیکپذیرخطی و معیار آستانه MSE ، وجود حداقل یک مقدارMin در تابع هدف به اثبات رسیده است[٨,٩]. با این حال، این امر یک موقعیت عمومی نمیباشد.
- بخشی از مقاله انگلیسی:
abstract
This paper proposes a novel supervised learning method for single-layer feedforward neural networks. This approach uses an alternative objective function to that based on the MSE, which measures the errors before the neuron’s nonlinear activation functions instead of after them. In this case, the solution can be easily obtained solving systems of linear equations, i.e., requiring much less computational power than the one associated with the regular methods. A theoretical study is included to proof the approximated equivalence between the global optimum of the objective function based on the regular MSE criterion and the one of the proposed alternative MSE function. Furthermore, it is shown that the presented method has the capability of allowing incremental and distributed learning. An exhaustive experimental study is also presented to verify the soundness and efficiency of the method. This study contains 10 classification and 16 regression problems. In addition, a comparison with other high performance learning algorithms shows that the proposed method exhibits, in average, the highest performance and low-demanding computational requirements.
Introduction
For a single-layer feedforward neural network, with linear activation functions, the weight values minimizing the meansquared error function (MSE) can be found in terms of the pseudoinverse of a matrix [1,2]. Furthermore, it can be demonstrated that the MSE surface of this linear network is a quadratic function of the weights [3]. Therefore, this convex hyperparaboloidal surface can be easily traversed by a gradient descent method. However, if nonlinear activation functions are used then local minima can exist in the objective function based on the MSE criterion [4–6]. In [7] it was shown that the number of such minima can grow exponentially with the input dimension. Only in some specific situations it is guaranteed the lack of local minima. In the case of linearly separable patterns and a threshold MSE criterion, it was proved the existence of only one minimum in the objective function [8,9]. Nevertheless, this is not the general situation.
دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
|
|
عنوان فارسی مقاله: |
یادگیری تحت نظارت شبکه های عصبی تک لایه به واسطه تابع هدف محدب |
عنوان انگلیسی مقاله: |
A new convex objective function for the supervised learning of single-layer neural networks |
|