این مقاله انگلیسی در نشریه آی تریپل ای در 8 صفحه در سال 2009 منتشر شده و ترجمه آن 20 صفحه بوده و آماده دانلود رایگان می باشد.
دانلود رایگان مقاله انگلیسی (pdf) و ترجمه فارسی (pdf + word) |
عنوان فارسی مقاله: |
انتقال میانگین سریع از طریق نمایش چگالی تراکم
|
عنوان انگلیسی مقاله: |
Fast Mean Shift by Compact Density Representation
|
دانلود رایگان مقاله انگلیسی |
|
دانلود رایگان ترجمه با فرمت pdf |
|
دانلود رایگان ترجمه با فرمت ورد |
|
مشخصات مقاله انگلیسی و ترجمه فارسی |
فرمت مقاله انگلیسی |
pdf |
سال انتشار |
2009 |
تعداد صفحات مقاله انگلیسی |
8 صفحه با فرمت pdf |
نوع نگارش |
مقاله پژوهشی (Research article) |
نوع ارائه مقاله |
کنفرانس |
رشته های مرتبط با این مقاله |
مهندسی کامپیوتر |
گرایش های مرتبط با این مقاله |
مهندسی الگوریتم ها و محاسبات – علوم داده |
چاپ شده در مجله (ژورنال)/کنفرانس |
کنفرانس بینایی کامپیوتری و تشخیص الگو (CVPR) |
کلمات کلیدی |
تقویت – یادگیری نیمه نظارت – سیستمهای مقیاس بزرگ – پیچیدگی محاسباتی – یادگیری تحت نظارت – الگوریتمهای خوشهبندی – گرافیک کامپیوتری – یادگیری ماشینی – الگوریتمهای یادگیری ماشین – هسته |
کلمات کلیدی انگلیسی |
Boosting – Semisupervised learning – Large-scale systems – Computational complexity – Supervised learning – Clustering algorithms – Computer graphics – Machine learning – Machine learning algorithms – Kernel |
ارائه شده از دانشگاه |
آزمایشگاه هیولت پاکارد، حیفا، اسرائیل |
شناسه دیجیتال – doi |
https://doi.org/10.1109/CVPR.2009.5206716 |
لینک سایت مرجع |
https://ieeexplore.ieee.org/document/5206716 |
رفرنس |
دارای رفرنس در داخل متن و انتهای مقاله ✓ |
نشریه |
آی تریپل ای – IEEE |
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش |
20 صفحه با فونت 14 B Nazanin |
فرمت ترجمه مقاله |
pdf و ورد تایپ شده با قابلیت ویرایش |
وضعیت ترجمه |
انجام شده و آماده دانلود رایگان |
کیفیت ترجمه |
مبتدی (مناسب برای درک مفهوم کلی مطلب)
|
کد محصول |
F2456 |
بخشی از ترجمه |
الگوریتم انتقال میانگین اساساً یک الگوریتم تپهنوردی است؛ یعنی الگوریتم انتقال میانگین که از هر نقطه x شروع میشود، یک الگوی توالی ضروری است که را به بالای تپه KDE برده و در نهایت در بیشینه (یا مد) موضعی KDE متوقف میشود که حوزه مطلوب x در آن واقع شده است. برای تعیین توالی انتقال میانگین، شکل کرنل را به وصرت صریح ساده نموده و شکل تقارن شعاعی K(x)=ck(‖z‖^2 ) را بدست میآوریم که k در آن، پروفایلی یک بعدی همانند پروفایلهای گاوسین یک بعدی، یکنواخت یا اپانچنیکوف بوده و c یک بهنجارش میباشد. با قرار دادن علامت g=k’، توالی انتقال میانگین به صورت زیر در میآید برای آوردن x به مدی که حوزه مطلوب در آن واقع میباشد، فرایند تکرار تعدادی نامتناهی از زمانها تضمین شده است. مزیت این روش بر روش صعود گرادیانی عادی، عدم نیاز به مجموعه پارامتر گام زمانی است (شایان ذکر است که چنین پارامتری در عبارت بالا وجود ندراد)؛ از لحاظ عملی، انتقال میانگین در تعداد گامهای بسیار کوچک که معمولاً در حدود 5 میباشد، همگرا میگردد.
برای استفاده از الگوریتم انتقال میانگین برای قطعهبندی یا خوشهبندی در مجموعه {x_i }_(i=1)^n، میتوان فرایند تکرار را از هر نقطه داده آغاز نمود. با قرار دادن M^1 (x)=M(x)، M^2 (x)=M(M(x)) و غیره، هر نقطه x_i را در M^∞ (x_i ) مینگاریم (خاطرنشان مینماییم که معمولاً M^5 (x_i ) این کار را انجام خواهد داد). از آنجا که تعداد مدها از تعداد نقاط بسیار کمتر میباشند بنابراین شکلی از قطعهبندی یا خوشهبندی وجود دارد که در عمل در تعدادی از کاربردها بسیار خوب عمل مینمایند [20، 6، 14].
2. 2. KDE متراکمتر: مسئله
بدون محاسبه صریح پیچیدگی خوشهبندی انتقال میانگین (بحث در خصوص این تمرین را به بخش 2. 5 موکول مینماییم)، خاطرنشان مینماییم که زمان اجرا در n، تعداد نقاط دادهای ابرخطی خواهد بود. اگر با تصاویر بزرگی که از دوربینهای روزانه حاصل میشوند سر و کار داشته باشیم آنگاه n به سادگی در محدوده 107 میباشند. اما موضوع ناگوار آن است که گاهی اوقات علاقمندیم تا از روش انتقال میانگین برای ویدیوها و یا در تصویرسازی سه بعدی همچون تصاویر CT یا MRI استفاده نماییم؛ در این حالت، n از مرتبه 108 یا بالاتر نیز به سادگی قابل انتظار خواهد بود. بنابراین بهتر آن است که روش انتقال میانگین سریع استفاده نماییم. یکی از تنگناهای اصلی فراروی سرعت، پیچیدگی توصیف KDE است که O(n) میباشد؛ بنابراین با بررسی مسئله یافتن توصیفی متراکمتر برای KDE، کار خود را آغاز مینماییم.
گزینههای طبیعی مختلفی برای مقیاس فاصله D، از فواصل L_p گونه گرفته تا مقیاسهای نظری با اطلاعات بیشتری همچون واگرایی کولبک- لیبلر وجود دارند. در تمامی این حالتها، به طور کلی حل مسئله بهینهسازی حاصل کار دشواری است؛ این موضوع ناشی از این حقیقت است که x ̂_j در کرنل K ظاهر میگردد که به بهینهسازی غیرمحدب منجر شده و راهحلهای کلی موثری را نمیتوان برای آن یافت. با این وجود f و f ̂ چیزی بیشتر از تابع میباشند؛ هر دو آنها چگالی بوده و این حقیقت، ابزاری برای یافتن راهحلی موثر جهت مسئله نمایش تراکم را برای ما فراهم میآورد.
3. 2. KDE متراکمتر از طریق نمونهبرداری
راهحل ارائه شده ما بسیار ساده میباشد: با نمونهبرداری از توزیع داده شده با f(.)، نمونههای موردنظر x ̂_j خود را انتخاب مینماییم. قبل از پرداختن به منطق این روش، خاطرنشان مینماییم که این نمونهبرداری به صورت کلی امکانپذیر بوده و میتوان آن را به عنوان یک روش سه مرحلهای به اجرا درآورد:
قضیه 1. برای هر j=1,…,m، فرض میکنیم که x ̂_j به صورت زیر ساخته میشود:
1. عدد صحیح r_j∈{1,…,n} را به صورت تصادفی انتخاب مینماییم.
2. نمونه تصادفی δ_j را از K(.) انتخاب میکنیم.
3. x ̂_j=x_(r_j )+H^(1⁄2) δ_j را قرار میدهیم.
بنابراین x ̂_j، نمونه مناسبی از f میباشد.
اثبات: مرجع [9] را ملاحظه نمایید.
مادامی که میتوان نمونه را به سادگی از K(.) سادهسازی نمود (همانند آنچه که در حالتهای موجود برای کرنلهای گاوسین، یکنواخت و اپانچنیکوف بود)، روش مورد نظر بسیار ساده خواهد بود.
اکنون، سئوال اصلی این است: اگر KDE f ̂ مبتنی بر نمونههای تصادفی x ̂_j را بسازیم آیا به KDE واقعی نزدیک خواهند بود یا خیر؟ البته KDE f ̂ به خودی خود، متغیری تصادفی است (یعنی یک تابع تصادفی) و بنابراین هر نتیجهای که به دنبال اثبات آن باشیم، ماهیتی احتمالی خواهند داشت. در حقیقت نتیجه زیر را داریم که مطابق انتظار، نزدیک بودن f و f ̂ در یک حس یا مفهوم L_2 را تضمین مینماید:
قضیه 2. همانند آنچه که در بالا بود f، KDE با n نقطه و f ̂، KDE ایجاد شده با روش نمونهبرداری m بار از f را در نظر گرفته و ماتریس پهنای باند قطری H ̂=h ̂^2 I را مدنظر قرار میدهیم. فاصله مربعی چشمانتظاری L_2 بین دو چگالی را در رابطه J=E[∫▒(f(x)-f ̂(x))^2 dx] در نظر میگیریم. بنابراین
که در آن A، B و V ثابتهایی هستند که به h ̂ یا m بستگی ندارند.
اثبات: مرجع [9] را ملاحظه نمایید.
معنی این قضیه بسیار سرراست است: دو KDE، f و f ̂ (مطابق انتظار) نزدیک خواهند بود اگر m به اندازه کافی بزرگ بوده و پهنای باند h ̂ به صورت مناسب به عنوان تابعی از m انتخاب شده باشد. این دقیقاً همان چیزی است که در نمایش تراکم به دنبال آن میباشیم: پیچیدگی توصیف KDE از O(n) به O(m) کاهش یافته است اما در حس L_2 مورد انتظار، مقداری نزدیک به همان چگالی ایجاد نمودهایم.
به مسئله انتخاب پهنای باند در بخش 2. 7 برمیگردیم؛ در بخش بعدی، به مسئله حساس نحوه استفاده از نمایش KDE کاهیده خود در خوشهبندی انتقال میانگین باز خواهیم گشت.
2.4. انتقال میانگین سریع
چگونه میتوان KDE با تراکم بیشتر خود را الگوریتم خوشهبندی انتقال میانگین گنجاند؟ از روش سه مرحلهای زیر استفاده میکنیم:
1. نمونهبرداری: m نمونه از چگالی f را در نظر میگیریم تا {x ̂_j }_(i=1)^m را بدست آوریم. چگالی جدید f ̂(x)=∑_(j=1)^m▒〖K_h ̂ (x,x ̂_j ) 〗 را تشکیل میدهیم.
2. انتقال میانگین: روش انتقال میانگین را بر روی هر m نمونه به اجرا درمیآوریم: x ̂_j→M ̂^∞ (x ̂_j ). در اینجا، M ̂ حاکی از آن است که از f ̂ (به جای f) برای انتقال میانگین استفاده نمودهایم.
3. نگاشت رو به عقب: برای هر x_i، نزدیکترین نمونه جدید x ̂_(j^* ) را مییابیم. بنابراین x_i→M ̂^∞ (x ̂_(j^* ) ).
در مرحله 1، KDE کاهیده را ساخته و در مرحله 2، انتقال میانگین را بر روی این KDE کوچکتر به اجرا درمیآوریم. با تعیین این مدها در KDE کاهیده، مسئله موجود همانا نگاشت رو به عقب به سمت دادههای اصلی است. در مرحله 3، با نگاشت از هر نقطه در دادههای اصلی (x_i) به نزدیکترین نقطه در دادههای کاهیده (x ̂_(j^* )) و از آنجا به مدی که در آن نقطه جریان مییابد (M ̂^∞ (x ̂_(j^* ) ))، مواجه میباشیم.
افزایش سرعت اصلی در مرحله دوم رخ میدهد؛ به جای استفاده از تمامی m نمونه جهت محاسبه انتقال میانگین میتوان از مجموعه کاهشیافتهای از m نمونه استفاده نمود. در بخش بعدی، افزایش سرعت نظری دقیقت که این روش در پی دارد را به صورت کیفی مورد بررسی قرار خواهیم داد؛ در اینجا خاطرنشان میشود که اجرای فرایند به صورت ساده میتواند به افزایش سرعت n/m منتهی میشود که در عمل میتواند از مرتبه 100 بزرگتر و حتی خیلی بیشتر از آن نیز برود.
2.5. تحلیل پیچیدگی
جنبه کلیدی موجود در محاسبه پیچیدگی، سرعت جستجوی نزدیکترین همسایه است. شایان ذکر است که در تکرار روش انتقال میانگین، معادله (1) را ملاحظه نمایید)، باید نزدیکترین همسایههای n نمونه x_i به نقطه موردنظر، x، را محاسبه نمود. فرض کنید که ساختار دادهای را داریم که امکان جستجوی نزدیکترین همسایه در زمان q(n) را داده و به زمان پردازش p(n) جهت محاسبه نیازمند میباشد؛ به طور خلاصه به نمونههایی از این ساختارها خواهیم پرداخت اما در اینجا فعلاً آنها را باقی خواهیم گذاشت. در این حالت، هر تکرار فرایند انتقال میانگین به زمان O(q(n)) جهت محاسبه نیاز دارد؛ و فرض میکنیم (که در عمل هم صادق میباشد) که تکرارهای O(1) برای همگرایی لازم میباشند، بنابراین هزینه اجرای الگوریتم بر روی تمامی n نقطه داده (یعنی الگوریتم کاهش کلی دادهها) به صورت زیر خواهد بود
الگوریتم پیشنهادی ما چقدر سریعتر است؟ به بخش 2. 4 برگشته و پیچیدگی مربوط به هر مرحله را تفکیک میکنیم. مرحله 1، مرحله نمونهبرداری، O(m)، است. قبلاً پیچیدگی مرحله 2، مرحله انتقال میانگین، را محاسبه نمودهایم؛ که دارای عبارت ساده بالا است اما این کار را به جای n نمونه برای m نمونه انجام میدهیم یعنی O(p(m)+mq(m)). در مرحله 3، باید نگاشت رو به عقب را به اجرا درآوریم؛ یعنی برای هر n نمونه اصلی باید نزدیکترین نقاط موجود m نمونه جدید را بیابیم. برای استفاده از ساختار دادههای خود (که زمان پیشپردازش را قبلاً برای آن در مرحله 2 به حساب آوردهایم)، به O(nq(m)) نیاز داریم. بنابراین مجموع موردنظر به صورت زیر میباشد
|