دانلود رایگان ترجمه مقاله هشینگ چند رسانه ای و شبکه سازی – IEEE 2016

دانلود رایگان مقاله انگلیسی در هم سازی چند رسانه ای و شبکه بندی به همراه ترجمه فارسی

 

عنوان فارسی مقاله در هم سازی چند رسانه ای و شبکه بندی
عنوان انگلیسی مقاله Multimedia Hashing and Networking
رشته های مرتبط مهندسی فناوری اطلاعات و کامپیوتر، سیستم های چند رسانه ای، رایانش ابری، اینترنت و شبکه های گسترده و شبکه های کامپیوتری
فرمت مقالات رایگان

مقالات انگلیسی و ترجمه های فارسی رایگان با فرمت PDF آماده دانلود رایگان میباشند

همچنین ترجمه مقاله با فرمت ورد نیز قابل خریداری و دانلود میباشد

کیفیت ترجمه کیفیت ترجمه این مقاله متوسط میباشد 
نشریه آی تریپل ای – IEEE
مجله چند رسانه ای – MultiMedia
سال انتشار ۲۰۱۶
کد محصول F543

مقاله انگلیسی رایگان (PDF)

دانلود رایگان مقاله انگلیسی

ترجمه فارسی رایگان (PDF)

دانلود رایگان ترجمه مقاله

خرید ترجمه با فرمت ورد

خرید ترجمه مقاله با فرمت ورد
جستجوی ترجمه مقالات جستجوی ترجمه مقالات

  

فهرست مقاله:

هش چند رسانه ای

درهم سازی از طریق یادگیری عمیق

شبکه بندی چند رسانه ای

شبکه های اطلاعات چند رسانه های

ارتباط بین تصاویر و کلمات کلیدی توسط کاربران تعیین می شود.

کنفرانس های چند رسانه ای

 

بخشی از ترجمه فارسی مقاله:

هش چند رسانه ای
ما به بررسی دو روش مختلف مرتبط با هش چند رسانه ای- هش مبتنی بر یادگیری سطحی و هش مبتنی بر یادگیری عمیق- پرداخته و فنون پیشرفته را برای ذخیره سازی چند رسانه ای، نمایه بندی و بازیابی ارایه می کنیم.
هش کردن( در هم سازی) با یادگیری سطحی
هشینگ توجه زیادی را از طرف محققان و متخصصان در زمینه کامپیوتر، یادگیری ماشینی، داده کاوی، بازیابی اطلاعات وسایر زمینه ها، جلب کرده است. طیف وسیعی از فنون درهم سازی و هشینگ برای کد گذاری اسناد، تصاویر، ویدئو و سایر انواع داده ها به مجموعه ای از کد های دو دویی توسعه یافته است، که موجب حفظ تشابهات در میان داده های اولیه می شود. با این کد های دو دویی، جست و جو های تشابه را می توان در دیتاست ها به دلیل کارایی بالای مقایسه زوجی با استفاده از فاصله همینگ انجام داد.
تلاش های اولیه در هشینگ، بر استفاده از تغییرات تصادفی در ساخت دستورات هش متمرکز بوده است. معرف ها و نمونه های شناخته شده نظیر هشینگ حداقل و هشینگ حساس به محل وجود داشته است. مینهش، تشابه جاکارد را براورد کرده است در حالی که LSH، متریک های تشابه و فواصل مختلف را در نظر می گیرد نظیر فاصله برای ، تشابه کوسینوس و تشابه هسته ای. به دلیل هشینگ تصادف، بیت های بیشتری در هر جدول هش یا درهم سازی برای دست یابی به دقت بالا نیاز است. این معمولا موجب کاهش فراخوانی شده و از این روی جداول درهم سازی برای دست یابی به صحت بالای نزدیک ترین همسایه بازیابی شده نیاز است. تعداد کل بیت های هش مورد استفاده در یک زمینه را می توان تا هزار ، تخمین زد.
در فراتر از طرح های هشینگ تصادفی مستقل از داده ها، یک روند اخیر در یادگیری ماشینی، توسعه فنون هشینگ وابسته به داده ها است تا یک مجموعه از کد های هش فشرده بر اساس مجموعه داده های آموزشی یاد گرفت. کد های دو دویی در این سناریو به دلیل سادگی و صحت محاسبه، محبوب بوده است.طرح هشینگ فشرده می تواند به جست و جوی نزدیک ترین همسایه پس از کد گذاری کامل مجموعه داده ها در کد های دو دویی کوتاه و ترکیب آن ها به یک جدول در هم سازی کمک کند. به علاوه، هشینگ فشرده برای ذخیره داده های بزرگ مقیاس اهمیت بسیار دارد. برای مثال، حفظ صد میلیون نمونه هر کدام با ۱۰۰ بیت دو دویی، هزینه کم تر از ۱٫۵ گیگابایت را دارد و به آسانی در حافظه قرار می گیرد.
برای ایجاد کد های هش فشرده موثر، روش های مختلف نظارت شده و نظارت نشده ارایه شده اند. روش هشینگ نظارت نشده پیشرفته، موسوم به هش گراف گسسته، از مفهوم گراف های تکیه کاه برای پوشش دادن ساختار همسایه در یک دیتا ست گر.وهی استفاده کرده و سپس یک مدل هشینک مبتنی بر گراف را در کل دیتاست فرموله می کند. این مدل منوط به روش های بهینه سازی گسسته جدید برای دست یابی به بیت های هش غیر همبتسه است.روش DGH عملکرد بهتری از روش های هشینگ نظارت نشده نظیر کمی سازی تکراری، هشینگ طیفی و هشینگ کراف داردو به این ترتیب قادر به پوشش دادن همسایه داده های خام در فضای کد گسسته خواهد بود
روش هشینگ نظارت شده پیشرفته، هشینگ گسسته نظارت شده،از اطلاعات برچسب نظارت شده استفاده کرده و هشینگ را از حیث طبقه بندی خطی، فرموله می کند که در آن کد های دو دویی یادگرفته شده برای طبقه بندی بهینه هستند. SDH از روش بهینه سازی مشترک استفاده می کند که به طور مشترک قادر به یادگیری دسته بند های خطی و دو دویی است. روش SDH عملکرد بهتری از روش های هشینگ نظارت شده قبلی دارد
بسیاری از روش های هشینگ جالب دیگر نظیر هشینگ سند، ویدئو، داده های ساختار مند و بین رسانه ای وجود دارد. توجه کنید که همه روش ها بستکی به الگوریتم های یادگیری سطحی دارد. با این وجود، به دلیل سرعت بالای هشینگ مبتنی بر یادگیری سطحی، فنون هشینگ پیشرفته به طور گسترده در حافظه چند رسانه ای، نمایه بندی، و بازیابی به خصوص در شرایط چند رسانه ای در ابزار های تلفن همراه استفاده می کنند. چندین شرکت نظیر اسنپ چت، پینترست، سنس تایم و فیس++ از فنون هشینگ مناسب برای مدیریت و جست و جو از طریق میلیون ها یا میلیارد ها تصویر استفاده می کنند

بخشی از مقاله انگلیسی:

Multimedia Hashing

We explore two different methodologies related to multimedia hashing—shallow-learning-based hashing and deep-learning-based hashing— demonstrating state-of-the-art techniques for enabling efficient multimedia storage, indexing, and retrieval.

Hashing by Shallow Learning

Hashing1 has attracted considerable attention from researchers and practitioners in computer vision, machine learning, data mining, information retrieval, and other related areas. A variety of hashing techniques have been developed to encode documents, images, videos, or other types of data into a set of binary codes (used as hash keys), while preserving certain similarities among the original data. With such binary codes, similarity searches can be rapidly performed over massive datasets, thanks to the high efficiency of pairwise comparison using the Hamming distance. Early endeavors in hashing concentrated on employing random permutations or projections to construct hash functions. Well-known representatives include Min-wise Hashing (MinHash)2 and Locality-Sensitive Hashing (LSH).3 MinHash estimates the Jaccard set similarity, while LSH accommodates various distance or similarity metrics—such as the ‘p distance for p 2 ð۰; ۲, cosine similarity, and kernel similarity. Due to randomized hashing, more bits per hash table are required to achieve high precision. This typically reduces recall, and multiple hash tables are thus required to achieve satisfactory accuracy of retrieved nearest neighbors. The overall number of hash bits used in one application can easily run into the thousands. Beyond data-independent randomized hashing schemes, a recent trend in machine learning is to develop data-dependent hashing techniques that learn a set of compact hash codes based on a training dataset (a multimedia database, for example). Binary codes have been popular in this scenario because of their simplicity and efficiency in computation. The compact hashing scheme can accomplish almost a constant-time nearest neighbor search, after encoding the entire dataset into short binary codes and then aggregating them into a hash table. Additionally, compact hashing is particularly beneficial for storing massive-scale data. For example, saving one hundred million samples, each with 100 binary bits, costs less than 1.5 Gbytes, which can easily fit in memory. To create effective compact hash codes, numerous methods have been presented, including unsupervised and supervised methods. The state-of-the-art unsupervised hashing method, Discrete Graph Hashing (DGH),4 leverages the concept of “anchor graphs” to capture the neighborhood structure inherent in a given massive dataset, and then formulates a graph-based hashing model over the entire dataset. This model hinges on a novel discrete optimization procedure to achieve nearly balanced and uncorrelated hash bits, where the binary constraints are explicitly imposed and handled. The DGH technique has been demonstrated to outperform the conventional unsupervised hashing methods, such as Iterative Quantization, Spectral Hashing, and Anchor Graph Hashing,1 which fail to sufficiently capture local neighborhoods of raw data in the discrete code space. The state-of-the-art supervised hashing method, Supervised Discrete Hashing (SDH),5 incorporates supervised label information and formulates hashing in terms of linear classification, where the learned binary codes are expected to be optimal for classification. SDH applies a joint optimization procedure that jointly learns a binary embedding and a linear classifier. The SDH technique has also been demonstrated to outperform previous supervised hashing methods.1 There exist many other interesting hashing techniques, such as document hashing,6 video hashing,7 structured data hashing,8 and intermedia hashing.9 Note that all of the techniques we have mentioned depend on shallow-learning algorithms. Nonetheless, owing to the high speed of shallow-learning-based hashing, the state-of-the-art hashing techniques have been widely used in high-efficiency multimedia storage, indexing, and retrieval, especially in multimedia search applications on smartphone devices. Several well-known startups, such as Snapchat, Pinterest, SenseTime, and Faceþþ, use proper hashing techniques to manage and search through millions or even billions of images.