این مقاله انگلیسی ISI در 6 صفحه در سال 2010 منتشر شده و ترجمه آن 13 صفحه میباشد. کیفیت ترجمه این مقاله ارزان – نقره ای ⭐️⭐️ بوده و به صورت کامل ترجمه شده است.
دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی | |
عنوان فارسی مقاله: |
توسعه شبکه های عصبی برای کاهش نویز |
عنوان انگلیسی مقاله: |
Development of Neural Networks for Noise Reduction |
|
مشخصات مقاله انگلیسی (PDF) | |
سال انتشار | 2010 |
تعداد صفحات مقاله انگلیسی | 6 صفحه با فرمت pdf |
رشته های مرتبط با این مقاله | مهندسی فناوری اطلاعات، کامپیوتر |
گرایش های مرتبط با این مقاله | شبکه های کامپیوتری، هوش مصنوعی، معماری سیستم های کامپیوتری |
چاپ شده در مجله (ژورنال) | مجله عربی بین المللی فناوری اطلاعات – The International Arab Journal of Information Technology |
کلمات کلیدی | کاهش نویز، شبکه های عصبی بازگشتی، انتشار خلفی چند لایه |
ارائه شده از دانشگاه | دانشکده مهندسی، دانشگاه فیلادلفیا، اردن |
رفرنس | دارد ✓ |
کد محصول | F1482 |
مشخصات و وضعیت ترجمه فارسی این مقاله (Word) | |
وضعیت ترجمه | انجام شده و آماده دانلود |
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش | 13 صفحه (1 صفحه رفرنس انگلیسی) با فونت 14 B Nazanin |
ترجمه عناوین تصاویر و جداول | ترجمه شده است ✓ |
ترجمه متون داخل تصاویر | ترجمه نشده است ☓ |
ترجمه متون داخل جداول | ترجمه شده است ✓ |
درج تصاویر در فایل ترجمه | درج شده است ✓ |
درج جداول در فایل ترجمه | درج شده است ✓ |
درج فرمولها و محاسبات در فایل ترجمه | به صورت عکس درج شده است ✓ |
منابع داخل متن | به صورت عدد درج شده است ✓ |
کیفیت ترجمه | کیفیت ترجمه این مقاله متوسط میباشد |
فهرست مطالب |
چکیده |
بخشی از ترجمه |
چکیده
این مقاله، توسعه مدل شبکه عصبی برای کاهش نویز را تشریح می کند. این شبکه به منظور ارتقاء عملکرد مدل سازی سیگنال از طریق کاهش اثر نویز مورد استفاده قرار می گیرد. هر دو مدل های شبکه عصبی انتشار بازگشتی و چند لایه بررسی می شوند و در مقایسه با الگوریتم های مختلف آموزش قرار می گیرند. این مقاله برای نشان دادن اثر الگوریتم های آموزش و معماری شبکه بر عملکرد شبکه های عصبی برای یک برنامه معین ارائه شده است.
1- مقدمه
در سیستم های فیزیکی، سیگنال های انتقال یافته معمولا به صورت جزئی، و یا گاهی اوقات تقریبا به طور کامل، با نویز اضافی از فرستنده، کانال و گیرنده توزیع شده اند. رویکرد مورد بررسی قرار گرفته در این کار، در نظر گرفتن کاهش نویز به عنوان یک فرایند اساسا مورد نیاز به منظور ارتقای روند برآورد بازسازی تصویر از سیگنال گرفته شده است. کاهش نویز به عنوان یک فرایند نگاشت مستمر از داده های ورودی پر نویز به داده های خروجی عاری از نویز در نظر گرفته می شود. سیگنال ارتقا یافته حاصل را می توان برای روند تصویربرداری هولوگرافی اعمال نمود که عملکرد مدل تخمین زده شده را بهبود می بخشد. شبکه های عصبی مصنوعی (شبکه های عصبی) استفاده روزافزون خود را در مسائل کاهش نویز پیدا کرده اند [1، 2، 3، 4، 7، 8، 12، 13، 16، 17]، و هدف اصلی از طراحی این شبکه های عصبی (NNs) ، بدست آوردن یک تقریب خوب برای برخی از نگاشت های ورودی-خروجی است. علاوه بر به دست آوردن یک تقریب معمولی، انتظار می رودNNs از داده های آموزش تعمیم داده شود. این تعمیم، برای استفاده از اطلاعاتی است کهNN در مرحله آموزش به منظور سنتز، مشابه ولی نه یکسان، نگاشت ورودی-خروجی آموخته است [11].
در این مقاله، دو معماری مختلف به کار گرفته می شوند. اینها شبکه های عصبی بازگشتی(RNNs) و شبکه های عصبی چندلایه(MLNNs). هستند. هر دوی این شبکه ها با پنج الگوریتم آموزش دیده اند. توابع آموزش مورد استفاده عبارتند از: پس پراکنی نزولی گرادیان (traingd)، نزولی گرادیان با حرکت پس پراکنی (traingdm)، شیب نزولی با پس پراکنی تطبیقی lr (نرخ یادگیری) (traingda)شیب نزولی w / پس پراکنی حرکتی و تطبیقی LR (traing DX)، و پس پراکنی Leverberg Marquardt (trainlm). NNs طراحی شده با دنباله های ورودی آموزش می بینند که تصور می شود یک ترکیب سیگنال مورد نظر به همراه یک نویز گوسی افزودنی باشد. انتظار می رود شبکه ها داده های آموزشی پرنویز را با خروجی مربوطه مورد نظر و تعمیم مدل یاد بگیرند. این تحقیقات، تلاشی برای به کار گیریANN در افزایش سیگنال اندازه گیری خراب شده و کاهش نویز است. سهم اصلی شامل موارد زیر است: • دنباله های ورودی آموزش برای NNs طراحی شده به عنوان یک ترکیبی از سیگنال مورد نظر به همراه یک نویز گوسی افزودنی در نظر گرفته می شوند. این فرض به روند یادگیری سرعت می بخشد و تقریب مدل مورد نظر را بهبود می بخشد [15]. • توسعه و مقایسه معماری NN برای استفاده در برنامه های کاهش نویز. • مقایسه عملکرد مدل سازی با استفاده از چند لایه و NNs بازگشتی • بررسی رابطه بین عملکرد آموزش و سرعت در الگوریتم های آموزش مورد استفاده برای معماری NN معین |
بخشی از مقاله انگلیسی |
Abstract This paper describes the development of neural network models for noise reduction. The networks used to enhance the performance of modeling captured signals by reducing the effect of noise. Both recurrent and multi-layer Backpropagation neural networks models are examined and compared with different training algorithms. The paper presented is to illustrate the effect of training algorithms and network architecture on neural network performance for a given application. 1 Introduction In physical systems, transmitted signals are usually distributed partially, or sometimes almost completely, by an additive noise from the transmitter, channel, and receiver. The approach investigated in this work is to consider noise reduction as an essentially required process to enhance the estimation process of image reconstruction of the captured signal. Noise reduction is considered as a continuous mapping process of the noisy input data to a noise free output data. The resulted enhanced signal can be applied to the holographic imaging process and improves the performance of the estimated model. Artificial Neural Networks (ANNs) are finding increasing use in noise reduction problems [1, 2, 3, 4, 7, 8, 12, 13, 16, 17], and the main design goal of these Neural Networks (NNs) was to obtain a good approximation for some inputoutput mapping. In addition to obtaining a conventional approximation, NNs are expected to generalize from the given training data. The generalization is to use information that NN learned during training phase in order to synthesize, similar but not identical, inputoutput mapping [11]. In this paper, two different NN architectures are employed. These are Recurrent Neural Networks (RNNs) and MultiLayer Neural Networks (MLNNs). Both networks are trained with five training algorithms. The training functions used are: Gradient descent backpropagation (traingd), gradient descent with momentum backpropagation (traingdm), gradient descent with adaptive lr (learning rate) backprobagation (traingda), gradient descent w/momentum and adaptive lr backpropagation (traingdx), and Leverberg Marquardt backpropagation (trainlm). The designed NNs are trained with input sequences that are assumed to be a composition of the desired signal plus an additive white Gaussian noise. The networks are expected to learn the noisy training data with the corresponding desired output and generalize the model. This research is an attempt to employ ANN for the enhancement of the measured corrupted signal and reduce the noise. The main contribution includes the following: • The input training sequences to the designed NNs are assumed to be a composition of the desired signal plus an additive white Gaussian noise. This assumption speeds up the learning process and improves the approximation of the desired model [15]. • The development and comparison of NN architectures for use in noise reduction applications. • A comparison of modeling performance using multi-layer and recurrent NNs. • An examination of the relationship between training performance and training speed with the training algorithm used for a given NN architecture. |