دانلود رایگان ترجمه مقاله چالش ها در مجازی سازی در زمان واقعی و محاسبات ابری قابل پیش بینی (نشریه الزویر 2014)

این مقاله انگلیسی ISI در نشریه الزویر در 15 صفحه در سال 2014 منتشر شده و ترجمه آن 38 صفحه میباشد. کیفیت ترجمه این مقاله ارزان – نقره ای ⭐️⭐️ بوده و به صورت کامل ترجمه شده است.

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

چالش ها در مجازی سازی در زمان واقعی و محاسبات ابری قابل پیش بینی

عنوان انگلیسی مقاله:

Challenges in real-time virtualization and predictable cloud computing

 
 
 
 
 

 

مشخصات مقاله انگلیسی (PDF)
سال انتشار 2014
تعداد صفحات مقاله انگلیسی 15 صفحه با فرمت pdf
رشته های مرتبط با این مقاله مهندسی فناوری اطلاعات و کامپیوتر
گرایش های مرتبط با این مقاله اینترنت و شبکه های گسترده، شبکه های کامپیوتری و رایانش ابری
چاپ شده در مجله (ژورنال) مجله معماری سیستم ها – Journal of Systems Architecture
کلمات کلیدی محاسبات کلود، سیستم های نرم بی درنگ، مدیریت منابع، کیفیت سرویس، SLM
ارائه شده از دانشگاه آزمایشگاه سیستم های زمان واقعی توزیع شده، گروه مهندسی مخابرات، دانشگاه کارلوس سوم، مادرید، اسپانیا
رفرنس دارد  
کد محصول F1192
نشریه الزویر – Elsevier

 

مشخصات و وضعیت ترجمه فارسی این مقاله (Word)
وضعیت ترجمه انجام شده و آماده دانلود
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  38 صفحه با فونت 14 B Nazanin
ترجمه عناوین تصاویر و جداول ترجمه شده است ✓ 
ترجمه متون داخل تصاویر ترجمه نشده است  
ترجمه متون داخل جداول ترجمه شده است 
درج تصاویر در فایل ترجمه درج شده است 
درج جداول در فایل ترجمه درج شده است 
منابع داخل متن درج نشده است 
کیفیت ترجمه کیفیت ترجمه این مقاله متوسط میباشد 

 

فهرست مطالب
چکیده مقاله 
1- مقدمه 
2- محاسبات و مجازی سازی کلود. 
1-2 مزایا و فواید مجازی سازی 
2-2 معماری ماشین مجازی 
1-2-2 واسط سخت افزار – نرم افزار 
2-2-2 توسعه محیط های اجرا مجازی 
3-2-2 انواع هایپر ویزور 
3-2 تکنیک های مجازی سازی و مشخصات عملکرد 
1-3-2 مجازی سازی کامل 
2-3-2 مجازی سازی سخت افزاری 
3-3-2 پارا- مجازی 
4-3-2 مجازی سازی سطح سیستم عامل
5-3-2 مجازی سازی سطح کاربرد 
6-3-2 مجازی سازی شبکه 
3-چالش های زمان حقیقی در محاسبات کلود 
1-3 نگاشت اصطلاحات علمی و فنی 
2-3 کنترل و دسترسی به برنامه اجرایی 
3-3 زمان بندی بی واسطه و مدیریت منابع 
1-3-3 مدیریت منابع توزیع شده 
2-3-3 زمان بندی بی واسطه ماشین های مجاز ی
3-3-3 جوابها و راه حل های که برپایه مجازی سازی ماشین استوار نیستند
4-3 چالش های شبکه اتصالات 
1-4-3 ضمانت های شبکه QoS در HPC 
2-4-3 مجازی سازی اتصالات شبکه I/O
4-نمونه ای ازرویکرد ها و روشها 
1-4 روشهای زمان بندی بی درنگ ماشین مجازی 
1-1-4 IRMOS 
2-1-4 RT-Xen
3-1-4 مقایسه بین IRMOS و RT-Xen 
2-4 رویکردهای اتصال بی درنگ و بی واسطه 
5-دستورالعمل های آتی 
1-5 تکنولوژی مجازی سازی 
2-5 حمایت از بارهای کاری فشرده – داده و بزرگ – داده 
3-5 چالش های بی درنگ در مجازی سازی عملیات شبکه 
6-نتیجه گیری
 

 

بخشی از ترجمه
 چکیده
محاسبات کلود و تکنولوژی مجازی سازی کاربردهای محاسبات همه منظور ه را در دهه گذشته دگرگون ساخته است. مدل کلود به علت کاهش هزینه های عملیاتی ، تحکیم سرویس دهنده ، پیکربندی سیستم انعطاف پذیر ، و تامین ذخیره منابع کشسانی و الاستیکی برتری های زیادی دارد. البته ، علی رغم موفقیت محاسبات کلود در پروسه محاسبات همه منظوره ، اما محسبات موجود کلود و تکنلوژی مجازی سازی در حمایت از کاربردهای جدید بی درنگ نرم مثل جریان دهی پیوسته ویدیویی ، بازی های کلود ، مدیریت ارتباطات از راه دور با چالش های بسیاری روبرو می شود. این کاربردها نیازمند عملکرد زمان حقیقی در محیط های باز ، مشترک و مجازی محاسباتی هستند . این مقاله چالش های فنی حمایت از کاربردهای بی واسطه را در پیشرفت های اخیر مقالات تکنوژی محاسبات کلود و مجازی بی درنگ بررسی میکند و راهبردهای تحقیقاتی توانا سازی کاربردهای بی درنگ کلود را در آینده ارایه می دهد . 
 
1- مقدمه
دسترسی پذیری وسیع و گسترده توده ای از اتصالات پر سرعت اینترنت توسط DSL و تکنولوژی های جدیدتر اپتیکی ، با اتصال های بی نظیر تکنولوژی های بی سیم و سلول دار منجر به حرکت به سمت مدلهای محاسبات توزیعب می شود. کاربردها فقط به منابع فیزیکی اتکاء دارند و داده های موجود در کامپیوتر محلی و شخصی ( PC ) کند هستند و به طور همسازی PC ها جهت رها سازی و ترک روش عصر جدید محاسبات توزیعی تبدیل به بخشی از تاریخ می شوند. این در مدل جدید در حال توسعه محاسابت کلود گنجانده و شامل می شود که در آن منابع برحسب تقاضا و نیاز و روش پرداخت – به ازاء –هر استفاده از تامین کننده های کلود اجاره می شود. مراکز داده های کلود مانند هر ماشین بزرگ سخت افزاری زیرساختار ، برنامه عامل ، و کاربردهای نرم افزاری را به صورت سرویس های در دسترس مشتریان ارایه می دهد. این سرویس ها به ترتیب Iaas( زیر ساختار به عنوان یک سرویس ) ،Paas(برنامه عامل به عنوان یک سرویس ) ، SaaS( نرم افزار به عنوان یک سرویس ) نامیده می شوند. کاربردهای کلود قادر به اجرا و بسط و توسعه داده ها و محاسبات خود روی گره ها هستند و می توانند به مقدار زیادی از داده های موجود در اسناد مراکز داده های کلود دسترسی پیدا کنند. به طور خلاصه ، محاسبات کلود قادر به انتقال نسل جدید سرویس های محاسباتی به محاسبات حجیم توزیعی و پیوسته هستند و نیز منجر به دسترسی پذیری مدل جدید محاسبات عند المطالبه عملکرد بالا ( HPC ) هر کس از هر جا ، در زمان نیاز است .
حوزه های کاربرد جدید به طور تدریجی وارد جهان کلود ، سیستم های بی درنگ می شوند که نیز در این مسیر به علت احتمالات عظیم و افزایش برنامه های کمکی این مدل حرکت می کنند. نمونه های این مدل در قسمت های سخت و نرم سیستم های زمان بی درنگ مثل سیستم کنترل توزیعی نظامی ، که برای کنترل و نظارت از راه دور استفاده می شوند، پاسخ زود و سیستم های هشدار ، خودروی های بدون سرنشین با هوش فزاینده سنسور کلود یا بازی کلود هستند.
محاسبات کلود و به طور اخص استفاده از کلودهای عمومی بر مدلهای فنی ، محیطی و تجاری برتری دارد و منجر به تحکیم و استحکام سیستم های متعدد کم مصرف در سرویس دهنده های کمتر فیزیکی می شود که از آنها میزبانی می کند. تامین کننده کلود میتواند منابع فیزیکی را با سنجش و پیمایش چند صد هزار مشتری به شیوه موثر مدیریت کنند و نیازهای بار کار را با بهینه سازی دوباره زیر ساختار به شیوه کاملاٌ خودکار به طور دنیامیکی تغییر دهد ، و سطوح بالا دسترسی پذیری و اعتبار پذیری را ارایه دهد. مجازی و مجاری ماشین یکی از مهمترین تکنولوژی های است که منجر به تغییر محابساتی این مدل می شود.
مجازی ماشین که نیز ( مجازی پردازشگر نامیده می شود ) منجر به رقابت ماشین با رفتار ماشین های گوناگون ، و با احتمال میزبانی از سیستم ها ی عامل ناهمگون میشود ( به نام سیستم های عامل مهمان یا Oss مهمان ) . مانیتور ماشین مجازی ( VMM) یا hypervisor زیر ساختار نرم افزاری است که روی میزبان فیزیکی اجرا می شود ( و کاملاٌ بر آن کنترل دارد ) و قادر به اجرا این شبیه سازی و تقلید است .
مجازی سازی امکان تحکیم سرویس دهنده ها را در مرکزهای داده ای فراهم می سازد که در آن سیستم های متعدد عامل که میزبان های بلااستفاده خود را ترک می توانند به منابع مشابه فیزیکی منتقل شوند. این امکان کاهش تعداد میزبان های مورد نیاز فیزیکی را و افزایش بهره برداری از آنها را در سطوح بالاتر از اشباع فراهم می سازد و از این رو منجر به صرفه جویی هزینه ها و انرژی میشود.
ماهیت چند کرایه ای محاسبات کلود اثر زیادی بر نیازهای فراون و مخالفت با نیازهای کاربر در زیر ساختار کلود دارد . تقاضا کاربران نه تنها دسترسی به ذخیره های پیوسته است بلکه نیز به کاربردهای زمان حقیقی و محاوره ای و سرویس ها است . این نیز توسط فرآورده های دیداری موجود در بازار مثل کامپیوتر های سبک که فقط در صورت اتصال به کلود قادر به انجام کاری در محل هستند ، تایید می شود.
کاربردها در محیط محاسباتی عملکرد بالا کلود ( HPCC) دارای نیازها و احتیاجات قوی تر زمانی مثل مشخصه عملکرد ، منجمله تضمین منابع می شود و از این رو تهیه به موقع نیاز مهم و بحرانی می شود. این در حقیقت یکی از حوزه تحقیقاتی آزاد جهت انطباق نیازها با محیط های مجازی به علت بار اضافی I/O و بی ثباتی زمان مورد نیاز دستورالعمل های مورد انتظار می شود. بعلاوه، هر چند فعالیت ها و کارها به هسته خاصی اختصاص داده می شوند اما آنها غالباٌ دارای وابستگی های های همزمان سازی سایر فعالیت ها هستند.
ادغام محاسبات کلود در زمان حقیقی یک مسئله پیچیده است که باید نیز به ( در زمره مسائل دیگر ) دسترسی موثر به برنامه عامل فیزیکی توجه کند. اگر چه فوق آفتاب گردان ها (hypervisor) بی واسطه منجر به دسترسی پذیری کاربردها به ماشین فیزیکی در محیط مجازی کلود می شوند اما بدیهی است که سخت افزار اصولاٌ با استفاده از لایه های نرم افزاری توسط کاربر قابل دسترسی نیستند. افزایش زمان های پاسخ سرویس از برنامه عامل کلود با استفاده از تکنیک های عملکرد بالا با تکنولوژی جدید و موجود امکان پذیر می شود. مسئله اصلی در اجاره داری متعدد برنامه های عامل محاسبات کلود نهفته است که روی سرویس دهنده های بسیار بار گذاری شده و مورد درخواست بسیاری از کاربران مستقل اجرا می شود. اخیراٌ ، تعدادی زیادی از فوق ویزورهای تجاری بی درنگ ( که برخی برنامه های سلسله مراتبی را ارایه می دهند ) روی سیستم های امن و بحرانی دارای مبدا های مختلف مثل WindRiver، تکنولوژی Acontis ، SysGO، OpenSynergy،LynuxWorks یاسیستم های بی واسطه GmbH وجود دارد . البته ، احتمال مشاده آنها بین تکنولوژی جریان دهی کلود در آینده نزدیک به سطوح عملکرد و مجازی سازی در سطوح پایین لایه اجرایی وجود ندارد. سیستم های جریان دهی و بی واسطه با اهداف مختلف ساخته شدند.مثلاٌ hypervisor های برای بیشینه سازی توان عملیاتی درخواست های کاربر و ارایه تضمین های آماری قراردادهای سرویس اختراع نشدند بلکه برای حفظ تفکیک زمانی و قطعیت خلق شدند.

 

بخشی از مقاله انگلیسی

Abstract

Cloud computing and virtualization technology have revolutionized general-purpose computing applications in the past decade. The cloud paradigm offers advantages through reduction of operation costs, server consolidation, flexible system configuration and elastic resource provisioning. However, despite the success of cloud computing for general-purpose computing, existing cloud computing and virtualization technology face tremendous challenges in supporting emerging soft real-time applications such as online video streaming, cloud-based gaming, and telecommunication management. These applications demand real-time performance in open, shared and virtualized computing environments. This paper identifies the technical challenges in supporting real-time applications in the cloud, surveys recent advancement in real-time virtualization and cloud computing technology, and offers research directions to enable cloud-based real-time applications in the future.

1 Introduction

The widespread availability for the masses of high-speed Internet connections at affordable rates, by means of DSL and more recently optical technologies, paired with an unprecedented connectivity through cellular and wireless technologies, is enabling an inescapable shift towards distributed computing models. Applications relying merely on physical resources and data available in the local personal computer (PC) are slowly but consistently becoming part of the history, as the PC declines leaving the way to a new era of distributed computing. This is subsumed into the recently expanding paradigm of Cloud Computing [87], in which resources are rented in an on-demand and pay-per-use fashion from cloud providers. Just as a huge hardware machine, cloud computing data centres deliver an infrastructure, platform, and software applications as services that are available to consumers. Such services are referred to as IaaS (infrastructure as a service), PaaS (platform as a service), and SaaS (software as a service), respectively [88]. Cloud applications are capable of running and spreading out their computations and data on as many nodes as needed, and they can access huge amounts of data directly available within the premises of cloud data centers. Shortly, cloud computing is enabling the next generation of computing services, heavily geared towards massively distributed and on-line computing, as well as enabling a new model of on-demand high performance computing (HPC) accessible to anyone from anywhere, whenever needed. As new application domains enter the cloud world progressively, real-time systems are also expected to move in this direction due to the tremendous possibilities and augmented utility that this paradigm could bring about. Examples are both on the hard and soft sides of real-time systems, such as military distributed control systems applied to remote surveillance, early response and warning systems, unmanned vehicles with augmented intelligence from the sensor cloud, or cloud gaming, among others. Cloud computing, and particularly the use of public clouds, brings advantages on the technical, environmental and business sides, allowing multiple under-utilized systems to be consolidated within fewer physical servers hosting them. A cloud provider can manage physical resources in a very efficient way by scaling on the several hundreds and thousands of customers (a.k.a., tenants) with dynamically changing workload requirements, by re-optimizing the infrastructure in a completely automated (or semiautomated) fashion whenever needed, providing high levels of availability and reliability. One of the most important technologies that enabled this paradigm shift in computing is virtualization, and particularly machine virtualization. Machine virtualization (also referred to as processor virtualization) allows a single physical machine to emulate the behavior of multiple machines, with the possibility to host multiple and heterogeneous operating systems (called guest operating systems or guest OSs) on the same hardware. A virtual machine monitor (VMM), or hypervisor, is the software infrastructure running on (and having full control of) the physical host and which is capable of running such emulation. Virtualization allows for server consolidation in data centers, where multiple operating systems that would leave their underlying hosts under-utilized can be moved to the same physical resources. This enables the achievement of a reduction of the number of required physical hosts, and their improved exploitation at higher saturation levels, thus saving costs and energy [86]. The multi-tenant nature of cloud computing has a great influence on the increasingly rich and challenging user requirements on cloud infrastructures. Users demand not only access to on-line storage, but also to real-time and interactive applications and services. This is also witnessed by visionary products already on the market, such as lightweight computers which are almost incapable of doing anything locally, unless they are connected to the ‘‘Cloud’’. In a high-performance cloud computing (HPCC) environment, applications have much stronger temporal requirements; as such, the characteristic of performance, including resource guarantees and timely provisioning of results, becomes critical. It is actually an open research area to match such requirements with virtualized environments due to I/O overhead and jitter of the required duration of executed instructions. Moreover, activities or jobs are mostly allocated to a specific core, but they often have synchronization dependencies with respect to other activities. Merging cloud computing with real-time is a complex problem that requires to also focus on (among others) the efficient access to the physical platform. Although real-time hypervisors typically may allow applications to access to the physical machine, in virtualized environments for cloud computing, it is clear that the hardware is typically not directly accessible by the user-level application software layers. With the current available technology, it could be possible to improve service response times from a cloud platform using high performance techniques. The main problems lie on the multi-tenancy of the cloud computing platforms that execute on heavy loaded servers the requests of several independent users. Currently, there are a number of commercial real-time hypervisors (some providing hierarchical scheduling) for safety critical systems of different origins such as WindRiver, Acontis Technology, SysGO, OpenSynergy, LynuxWorks, or Real Time Systems GmbH. However, it is not likely to see them among the mainstream cloud technology in the immediate future due to performance levels and compatibility problems at the low level execution layer. Mainstream and real-time ones were created with different objectives. For example, real-time hypervisors were not invented for maximizing throughput of user requests and providing statistical guarantees on service contracts, but to preserve temporal isolation and determinism.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا