دانلود ترجمه مقاله حملات خصمانه با اتصال نشانگرهای نویز بر روی چهره در برابر تشخیص عمیق چهره (ساینس دایرکت – الزویر ۲۰۲۱) (ترجمه ویژه – طلایی ⭐️⭐️⭐️)

 

 

این مقاله انگلیسی ISI در نشریه الزویر در ۱۱ صفحه در سال ۲۰۲۱ منتشر شده و ترجمه آن ۳۱ صفحه میباشد. کیفیت ترجمه این مقاله ویژه – طلایی ⭐️⭐️⭐️ بوده و به صورت کامل ترجمه شده است.

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

حملات خصمانه با اتصال نشانگرهای نویز بر روی چهره در برابر تشخیص عمیق چهره

عنوان انگلیسی مقاله:

Adversarial attacks by attaching noise markers on the face against deep face recognition

 

 

مشخصات مقاله انگلیسی 
فرمت مقاله انگلیسی pdf
سال انتشار ۲۰۲۱
تعداد صفحات مقاله انگلیسی ۱۱ صفحه با فرمت pdf
نوع مقاله ISI
نوع نگارش مقاله پژوهشی (Research Article)
نوع ارائه مقاله ژورنال
رشته های مرتبط با این مقاله مهندسی کامپیوتر
گرایش های مرتبط با این مقاله هوش مصنوعی، مهندسی نرم افزار، مهندسی الگوریتم ها و محاسبات
چاپ شده در مجله (ژورنال) مجله امنیت اطلاعات و کاربردهای آن – Journal of Information Security and Applications
کلمات کلیدی نمونه های رقابتی، حملات مخالف، حمله نامحسوس، تشخیص چهره، شبکه های عصبی عمیق
کلمات کلیدی انگلیسی Adversarial examples – Adversarial attack – Evasion attack – Face recognition – Deep neural networks
ارائه شده از دانشگاه دانشکده تحصیلات تکمیلی دانشگاه Soongsil ، سئول ، کره جنوبی
نمایه (index) scopus – master journals – JCR
نویسندگان Gwonsang Ryu – Hosung Park – Daeseon Choi
شناسه شاپا یا ISSN ۲۲۱۴-۲۱۲۶
شناسه دیجیتال – doi https://doi.org/10.1016/j.jisa.2021.102874
ایمپکت فاکتور(IF) مجله ۵٫۴۲۹ در سال ۲۰۲۰
شاخص H_index مجله ۴۰ در سال ۲۰۲۱
شاخص SJR مجله ۰٫۶۱۰ در سال ۲۰۲۰
شاخص Q یا Quartile (چارک) Q2 در سال ۲۰۲۰
بیس نیست 
مدل مفهومی ندارد 
پرسشنامه ندارد 
متغیر ندارد 
رفرنس دارای رفرنس در داخل متن و انتهای مقاله
کد محصول ۱۱۸۵۹
لینک مقاله در سایت مرجع لینک این مقاله در سایت Elsevier
نشریه الزویر – Elsevier

 

مشخصات و وضعیت ترجمه فارسی این مقاله 
فرمت ترجمه مقاله pdf و ورد تایپ شده با قابلیت ویرایش
وضعیت ترجمه انجام شده و آماده دانلود
کیفیت ترجمه ویژه – طلایی ⭐️⭐️⭐️
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  ۳۱ (۳ صفحه رفرنس انگلیسی) صفحه با فونت ۱۴ B Nazanin
ترجمه عناوین تصاویر و جداول ترجمه شده است 
ترجمه متون داخل تصاویر ترجمه شده است 
ترجمه متون داخل جداول ترجمه شده است 
ترجمه ضمیمه ندارد 
ترجمه پاورقی ندارد 
درج تصاویر در فایل ترجمه درج شده است  
درج جداول در فایل ترجمه درج شده است  
درج فرمولها و محاسبات در فایل ترجمه تایپ شده است
منابع داخل متن به صورت عدد درج شده است 
منابع انتهای متن به صورت انگلیسی درج شده است

 

فهرست مطالب

چکیده

۱٫ مقدمه

۲٫ پیش زمینه

۱٫۲٫ تشخیص چهره عمیق

۲٫۲٫ طبقه بندی حمله در مقابل تشخیص چهره عمیق

۳٫ مطالعات مربوط

۱٫۳٫ حملات تهاجمی برای دسته بندی تصاویر

۲٫۳٫ حملات رقابتی علیه تشخیص چهره عمیق

۴٫ روش فنی

۱٫۴٫ تعریف چالش

۲٫۴٫ انتخاب مکان نشانگر پارازیت تصویر

۳٫۴٫ تنطیم رنگ و مکان

۵٫ ارزیابی

۱٫۵٫ مقدمه آزمایش

۲٫۵٫ گزینش مکان نشانگر پارازیت تصویر

۳٫۵٫ آزمایش ها در محیط دیجیتالی

۴٫۵٫ آزمایش در دنیای واقعی

۵٫۵٫ حملات انتقال پذیر

۶٫ بحث و گفتگو

۷٫ نتیجه گیری

منابع

 

بخشی از ترجمه

چکیده

شبکه های عصبی عمیق هوش مصنوعی(DNNS) به طور فزاینده ای در فعالیت های آموزشی ماشینی موثر بوده اندکه این فعالیت ها شامل طبقه بندی تصاویر، تشخیص صدا، و پردازش زبان طبیعی است. تشخیص چهره با استفاده از DNNS کارایی بالایی دارد و به طور قابل ملاحظه در زمینه های گسترده ای از قبیل سیستم های مالی و بازرسی مهاجرتی مورد استفاده قرار می گیرد. با این حال شبکه عصبی یا همان DNNS نسبت به نمونه های تهاجمی که با اضافه کردن مقدار کمی پارازیت تصویر به نمونه اصلی به وجود می آید آسیب پذیر است که به طبقه بندی اشتباه در این سیستم می انجامد. در این مطالعه قصد داریم که پیشرفته ترین نرم افزار تشخیص چهره را با اتصال نشانگرهای پارازیت تصویر بر روی چهره در دنیای واقعی دچار خطا کنیم. به منظور به اشتباه انداختن یک مدل تشخیص چهره در دنیای واقعی، چالش های موجود در فرآیند حمله را مورد بررسی قرار می دهیم که این فرآیندها شامل تعیین مکان نشانگرهای پارازیت تصویر، تفاوت میان رنگ های نشانگرهای پارازیت دیجیتالی و رنگهای نشانگرهای پارازیت پس از پرینت، تفاوت های میان رنگ های نشانگرهای پارازیت که به چهره متصل شده اند و رنگ های نشانگرهای پارازیت پس از عکس برداری و تفاوت میان مکان های نشانگرهای دیجیتالی پارازیت و مکان های نشانگرهای پارازیت که به چهره متصل اند می باشد. در آزمایشات، ما نشانگرهای پارازیت را با در نظر گرفتن این چالش ها ایجاد کرده و نشان خواهیم داد که پیشرفته ترین مدل تشخیص چهره با اتصال حداکثر ۱۰ نشانگر پارازیت به چهره دچار خطا می شود. این می تواند مدل های تشخیص چهره در شبکه های عصبی عمیق یا همان (DNNS) را با ریسک امنیتی مواجه کند.

 

۷٫ نتیجه گیری  

در این مطالعه چالش هایی که باید در فریب دادن مدل های تشخیص چهره با اتصال نشانگرهای پارازیت تصویر بر روی چهره ها در دنیای واقعی حل شوند را تعریف کرده و روش های فنی برای کاهش تفاوت های رنگ و تفاوت های مکان نشانگرهای پارازیت تصویر ارائه دادیم. به علاوه، سه روش برای انتخاب مکان های نشانگرهای پارازیت تصویر ارزیابی کرده و نشان دادیم که سیستم تشخیص چهره عمیق به وسیله اتصال حداکثر ۱۰ نشانگر پارازیت تصویر ۵ ×۵ پیکسلی بر روی چهره در دنیای واقعی را می توان فریب داد. در تحقیقات آینده، از شرکت کنندگان بیش تری استفاده کرده و با استفاده از گروه داده جمع آوری شده با فیلمبرداری از مناطق مختلف و با تجهیزات متفاوت به انجام مطالعه می پردازیم. هم چنین، سعی خواهیم کرد که مدل های تشخیص چهره را با استفاده از استیکرهای نقاشی چهره که طبیعی تر بوده و ناحیه تغییر وسیع تری نسبت به نشانگرهای پارازیت تصویر دارند، فریب دهیم و تلاش می کنیم که به سیستم های تشخیص چهره بازرگانی مانند Face++[43] و Rekognition[44] حمله کنیم.

 

بخشی از مقاله انگلیسی

Abstract

Deep neural networks (DNNs) have become increasingly effective in difficult machine learning tasks, such as image classification, speech recognition, and natural language processing. Face recognition (FR) using DNNs shows high performance and is widely used in various domains such as payment systems and immigration inspection. However, DNNs are vulnerable to adversarial examples generated by adding a small amount of noise to an original sample, resulting in misclassification by the DNNs. In this study, we attempt to deceive state-of-the-art FR by attaching noise markers on a face in the real world. To deceive an FR model in the real world, we address challenges in the attack process, including selection of locations of noise markers, the differences between colors of digital noise markers and those of noise markers after printing, the differences between the colors of noise markers that are attached to the face and those of noise markers after a picture is taken, and the differences between the locations of digital noise markers and those of noise markers that are attached to the face. In experiments, we generate noise markers considering these challenges and show that state-of-the-art FR can be deceived by attaching a maximum of 10 noise markers to a face. This can cause a security risk for FR models using DNNs.

 

۷٫ Conclusion

In this study, we defined the challenges that must be solved when deceiving deep FR models by attaching noise markers on faces in the real world and demonstrated technical approaches to minimize color differences and location differences of the noise markers. In addition, we evaluated three methods for selecting the locations of the noise markers and showed that the deep FR system could be deceived by attaching a maximum of 10 noise markers of 5 × ۵ pixels on the face in the real world. In future research, we will recruit more participants and conduct the study with face datasets collected under various shooting environments using different devices. In addition, we will attempt to deceive FR models using face painting stickers that are more natural and have a wider modulation area than noise markers, and will try to attack commercial FR systems such as Face++ [43] and Amazon Rekognition [44].

 

تصویری از مقاله ترجمه و تایپ شده در نرم افزار ورد

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

حملات خصمانه با اتصال نشانگرهای نویز بر روی چهره در برابر تشخیص عمیق چهره

عنوان انگلیسی مقاله:

Adversarial attacks by attaching noise markers on the face against deep face recognition

 

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا