دانلود رایگان ترجمه مقاله مدیریت منابع برای زیرساخت به عنوان یک سرویس (IaaS) در محاسبات ابری – الزویر 2014

دانلود رایگان مقاله انگلیسی مدیریت منابع به عنوان یک زیرساخت همانند یک سرویس در محاسبات ابری: یک نظرسنجی به همراه ترجمه فارسی

 

عنوان فارسی مقاله: مدیریت منابع به عنوان یک زیرساخت همانند یک سرویس در محاسبات ابری: یک نظرسنجی
عنوان انگلیسی مقاله: Resource management for Infrastructure as a Service (IaaS) in cloud computing: A survey
رشته های مرتبط: مهندسی کامپیوتر، فناوری اطلاعات، رایانش ابری یا محاسبات ابری، اینترنت و شبکه های گسترده، مدیریت سیستم های اطلاعاتی
فرمت مقالات رایگان مقالات انگلیسی و ترجمه های فارسی رایگان با فرمت PDF میباشند
کیفیت ترجمه کیفیت ترجمه این مقاله خوب میباشد 
توضیحات ترجمه این مقاله به صورت خلاصه انجام شده است.
نشریه الزویر – Elsevier
کد محصول f148

مقاله انگلیسی رایگان (PDF)

دانلود رایگان مقاله انگلیسی

ترجمه فارسی رایگان (PDF)

دانلود رایگان ترجمه مقاله

خرید ترجمه با فرمت ورد

خرید ترجمه مقاله با فرمت ورد
جستجوی ترجمه مقالات جستجوی ترجمه مقالات مهندسی کامپیوتر

 

بخشی از ترجمه فارسی مقاله:

5.4 تطبیق منابع
دلیل اصلی اضافه نمودن محاسبات ابری از دیدگاه یک کاربر جابجایی از یک مدل CAPEX به OPEX است که این کار به جای خریداری منابع فناوری اطلاعات صورت می گیرد. در این راستا یک کمپانی به کمپانی دیگر برای منابع استفاده شده پول پرداخت خواهد کرد. جنبه مهم این است که کمپانی به مدت طولانی نیازمند تبلیغ منابع اش نخواد بود. امروزه این حالت معمول است زمانی که یک کمپانی منابع خود را در یک شرکت سرمایه گذاری می کند و در نتیجه مقدار منابع توسعه یافته در زمان اوج به حداکثر نخواهد رسید و یک روند منظم را طی می کند. مفهوم کلیدی چهارچوب بحث شده در Zhuand Agrawal (2010) الگوریتم تطبیق پویای منابع است که مبتنی بر فرضیه کنترل است. یک سیاست کنترل هدایت تقویت یادگیری برای تنظیم پارامترها تطبیق داده می شود به طوری که سود برنامه با استفاده از سربار به حداکثر برسد. چنین مدل کنترلی می تواند سریع و با دقت اموزش داده شود. علاوه بر این یک مدل منبع برای نگاشت هر ترکیبی از مقادیر از پارامترهای تطبیقی با ملزوم ساختن منبع صورت می گیرد تا تضمین نماید هزینه از بودجه موجود تجاوز نکند.
Duong et al (2009) یک چهارچوب انعطاف پذیر را برای ارائه منابع پویا و تطبیق در ابرهای IaaS مطرح کردند. هسته این چهارچوب تنظیم الگوریتم های تطبیقی منابع است که بار کاری را با اطلاعات منبع کاربردی ساخته تا تغییرات تصمیات رادر تغییر تقاضای کاربران پوشش دهد.
Senna et al (2011) یک معماری برای مدیریت و تطبیق شبکه های مجازی بر ابر ارائه دادند. زیرساخت آن ها اجازه ساخت شبکه های مجازی مرتبط با اجرای جریان های کاری را داده و از محیط کاربر حفاظت می کند. شبکه های مجازی استفاده شده در اجرای جریان کاری دارای عملکرد نظارت شده اشان توسط مدیری هستند که نقش پیش گیرانه ای در مورد خرابی عملکرد در زمان الزامات را دارد.
انعطاف پذیری تطبیق راه حل های ابر را برای تمامی کاربران صورت می بخشد تا اطمینان دهد ان ها آن چه را که دقیق می خواهند را دریافت کرده اند. بدین وسیله محاسبه ابری نه تنها راه جدیدی از چگونگی اجرای محاسبات را صورت می بخشند بلکه طیفی از مسائل ICT شناخته شده را در مناطق مختلف آموزش و بهداشت و درمان و… حل می کنند.تطبیق منبع میزبان های مجازی باید به طور پویا برای تقاضاهای به روز شده به خوبی برنامه های collocate حل شود تا صرفه جویی در مصرف انرژی صورت پذیرد. Sclater (2011). از مهم تر تراکنش های منبع ، در طول حجم کار است که باید با توجه به عدم تطابق منابع پیشنهادی به حداقل رسانده شود. یک سیستم که می تواند به طور خودکار مقیاس بندی منابع زیرساختی به اشتراک گذاشته را صورت بخشد در Charalambous (2010) انجام شده است. نظارت های مدیر تطبیق و تخصیص خودکار منابع به کاربران از طریقی پویا صورت می گیرد. با این حال این شیوه متمرکز نمی تواند در آینده متناسب با محیط ابری چند ارائه دهنده باشد. زیرا ارائه دهندگان مختلف ممکن نیست بخواهند توسط چنین مدیریت متمرکزی نظارت شوند. درجه مدیریت منابع ، پیوند منابع API و هماهنگی منابع در چندین ابر در روشی بی نقص صورت گرفته و اهداف عملکردی را حفظ می کند که می تواند بسیار شایسته رسیدگی در آینده باشد. همچنین مقیاس بندی پویای LBS و تاثیراتش بر مقیاس بندی کل برنامه در
Vaquero et al (2011) و سرویس مقیاس بندی خودکار آمازون مطرح شده است. هدف نویسندگان در Baldine et al (2009) مدیریت شبکه اساسی به صورت منابع کلاس اولی است که می تواند زمان بندی و تخصیص همکار گونه را با منابع محاسباتی و ذخیره سازی صورت بخشد تا یک شبکه کامل اماده به ساخت را معرفی نماید.
Jung et al (2008) یک شیوه ترکیبی جدید برای رفتاری خودکار پیشنهاد کردند که از مدل های نظریه صف بندی با تکنیک های بهینه سازی استفاده می کند تا رفتار مدل را پیش بینی کرده و به طور خودکار تنظیمات بهینه سیستم را تولید کند. Marshall) 2010 ) مدیریت منابع را اجرا کرده و بر Nimbus toolkit ساخته شدند و به صورت امن و پویا خوشه های فیزیکی را بر ابر ارائه کردند. رابط های مدیریت الاستیک به طور مستقیم با مدیران محلی در ارتبط اند همانند Torque .
Raghavan et al (2009). طراحی و پیاده سازی محدوده نرخ توزیع شده را با همکاری “نر” کلی تجمیع در گوشه های متفاوت مطرح ساخته و سیاست های ترافیک شبکه مبتنی بر ابر را با ان در همکاری قرار داد و همچنان اطمینان داد که جریان های لایه پاسخ ازدحام رفتار جریان گونه ای خواهند داشت اگر به اشتراک گذاشته شوند.
5.4.1 چالش های حل نشده تطبیق منابع
– تقاضا برای استفاده از سرویس های ابر ارائه شده توسط فروشنده چگونه است؟ آیا این امر ثابت است یا به طور گسترده متغیر است؟
– فرکانس استفاده از منابع ابر چیست؟ مکررا تکرار می شود؟ استفاده مکرر در حقیقت مدل پرداخت پس از برداشت را اقتصادی ترمی کند؟ آیا سرویس های سفارشی سازی شده توسط فروشندگان نیازاند؟ فروشندگان ابر سرویس های سفارشی سازی شده را بیشتر ارائه می کنند و به همین ترتیب قیمت کاری آنها جذاب به نظر نمی رسد.
– آیا ماموریت برنامه مهم است؟ یک ماموریت بحرانی آیا نیازمند قدرت SLAs است که نتواند قادر به رفع نیاز ها نباشد؟
– آیا یک مسئله می تواند در قطعه ای برنامه ما رخ دهد که QoE تحت تاثیر انطباق قرار گیرد یا خیر؟
– آیا مسئله اطلاعات یا ما ارائه دهنده سرویس برنامه ما به اشتراک گذاشته خواهد شد اگر برنامه ما نتواند بطور خودکا خود را کنترل کند؟
– آیا می توان تمام جزئیات فعال و غیر فعال را در اتصال و مسیر انتها به انتها و سطوح دامنه ISP نظارت کنیم؟
– می توان تمام اندازه گیری های مربوط به ارائه آفلاین کاربران QoE را تحلیل نمود؟ برای نمونه شناسایی در زمان وقایع غیرعادی تاثیر گذار بر کاربران QoE .

بخشی از مقاله انگلیسی:

5.4. Resource adaptation

The primary reason for adapting cloud computing from a user perspective is to move from the model of capital expenditure (CAPEX) to operational expenditure(OPEX). Instead of buying IT resources like machines, storage devices etc. and employing personnel for operating, maintaining etc., a company pays another company (the provider) for the actual resources used (pay-as-you-go). An important aspect of this is that a company no longer needs to overprovision its IT resources. It is typical today, when a company invests in its own resources, that the amount of resources invested in corresponds to the maximum amount of resources needed at peak times with the result that much of these resources are not needed at all during regular periods. The key conceptual component of framework discussed in Zhu and Agrawal (2010) is a dynamic resource adaptation algorithm, which is based on control theory. A reinforcement learning guided control policy is applied to adjust the adaptive parameters so that application benefit is maximized within the time constraint using modest overhead. Such a control model can be trained fast and accurately. Furthermore, a resource model is proposed to map any given combination of values of adaptive parameters to resource requirements in order to guarantee that the resource cost stays under the budget. Duong et al. (2009) have proposed an extensible framework for dynamic resource provisioning and adaptation in IaaS clouds. The core of this framework is a set of resource adaptation algorithms which utilize workload and resource information to make informed provisioning decisions in light of dynamically changing users demands. Jung et al. (2010) present Mistral, a holistic optimization system that balances power consumption, application performance, and transient power/performance costs due to adaptation actions and decision making in a single unified framework. By doing so, it can dynamically choose from a variety of actions with differing effects in a multiple application, and dynamic workload environment. Calyam et al. (2011) use OnTimeMeasure-enabled performance intelligence to compare utility-driven resource allocation schemes in virtual desktop clouds. The results from the global environment for network innovations(GENI) infrastructure experiments carried out by the authors demonstrated how performance intelligence enables autonomic nature of FI (Future Internet) applications to mitigate the costly resource overprovisioning and user QoE (Quality of Experience) guesswork, which are common in the current Internet. Senna et al. (2011) present an architecture for management and adaptation of virtual networks on clouds. Their infrastructure allows the creation of virtual networks on demand, associated with the execution of workflows, isolating and protecting the user environment. The virtual networks used in workflow execution has its performance monitored by the manager which acts preemptively in the case of performance dropping below stated requirements. Flexibility enables the adaptation of cloud solutions to all users to ensure that they get exactly what they want and need. By that, cloud computing not only introduces a new way of how to perform computations over the Internet, but some observers also observed that it holds the potential to solve a range of ICT (information and communications technology) problems identi- fied within disparate areas such as education, healthcare, climate change, terrorism, economics etc. as per Schubert (2010). Resource adaptation of the virtual hosts should dynamically scale to the updated demands (cloud computing) as well as colocate applications to save on energy consumption (green computing) as per Sclater (2011). Most importantly, resource transitions during workload surges should occur while minimizing the expected loss due to mismatches of the resource predictions and actual workload demands. A system that can automatically scale its share of infrastructure resources is designed in Charalambous (2010). The adaptation manager monitors and autonomically allocates resources to users in a dynamic way. However, this centralized approach cannot fit in the future multiprovider cloud environment, since different providers may not want to be controlled by such a centralized manager. There have been great advances towards automatically managing collections of inter-related and context-dependent VMs (i.e. a service) in a holistic manner by using policies and rules. The degree of resource management, the bonding to the underlying API and coordinating resources spread across several clouds in a seamless manner while maintaining the performance objectives are major concerns that deserve further study. Also, dynamically scaling LBS (location based services) and its effects on whole application scalability are reported in Vaquero et al. (2011) and Amazon auto scaling service. The goal of authors in Baldine et al. (2009) is to manage the network substrate as a first-class resource that can be co-scheduled and co-allocated along with compute and storage resources, to instantiate a complete built-to-order network slice hosting a guest application, service, network experiment, or software environment. The networked cloud hosting substrate can incorporate network resources from multiple transit providers and server hosting or other resources from multiple edge sites (a multi-domain substrate). Jung et al. (2008) propose a novel hybrid approach for enabling autonomic behavior that uses queuing theoretic models along with optimization techniques to predict system behavior and automatically generate optimal system configurations. Marshall et al. (2010) have implemented a resource manager, built on the Nimbus toolkit to dynamically and securely extend existing physical clusters into the cloud. The elastic site manager interfaces directly with local resource managers, such as Torque. Raghavan et al. (2009) present the design and implementation of distributed rate limiters, which work together to enforce a global rate limit across traffic aggregates at multiple sites, enabling the coordinated policing of a cloud-based service network traffic. This abstraction not only enforces a global limit, but also ensures that congestion-responsive transport-layer flows behave as if they traversed a single, shared limiter. Table 10 summarizes some of the resource adaptation schemes. Table 11 lists out the performance metrics of the resource adaptation schemes.

5.4.1. Open challenges in resource adaptation How is the demand for using the cloud services provided by the vendor? Is it mostly constant or widely varying? What is the frequency of usage of cloud resources? Is it highly frequent? Very frequent usage in fact makes less economic sense to go for cloud based pay-as-you-go model. Do we need highly customized services/API (application programming interfaces) to be exposed by the vendor? Cloud vendors would not find it economically attractive to provide highly customized services and hence price for enterprise (users of cloud) might also be not very attractive. Is the application mission critical? A mission critical application would need very stringent SLAs, which cloud vendors could not be able to satisfy as yet. An industry or application with highly stringent compliance requirements might still not find it suitable to consume key services from a vendor due to inherent risks involved. Can a problem occurence in our slice environment that impacts our QoE be identified and notified to our application to adapt and heal? Can problem information also be shared with us and our application service provider if our application cannot automatically heal itself? Can we monitor all the detailed active (e.g., Ping, traceroute, iperf) and passive (e.g., TCP dump, netow, router-interface statistics) measurements at end-to-end hop, link, path and slice levels across multiple federated ISP domains? Can we analyze all the measurements to offline provision adequate resources to deliver satisfactory user QoE, and online i.e., real-time identify anomalous events impacting user QoE?

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا