این مقاله انگلیسی ISI در 8 صفحه در سال 2009 منتشر شده و ترجمه آن 15 صفحه میباشد. کیفیت ترجمه این مقاله ارزان – نقره ای ⭐️⭐️ بوده و به صورت کامل ترجمه شده است.
دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی | |
عنوان فارسی مقاله: |
مسائل مربوط به اجرای یک پلت فرم محاسبات ابر |
عنوان انگلیسی مقاله: |
Implementation Issues of A Cloud Computing Platform |
|
مشخصات مقاله انگلیسی | |
فرمت مقاله انگلیسی | pdf و ورد تایپ شده با قابلیت ویرایش |
سال انتشار | 2009 |
تعداد صفحات مقاله انگلیسی | 8 صفحه با فرمت pdf |
نوع مقاله | ISI |
نوع ارائه مقاله | ژورنال |
رشته های مرتبط با این مقاله | مهندسی کامپیوتر |
گرایش های مرتبط با این مقاله | رایانش ابری، مهندسی نرم افزار |
ارائه شده از دانشگاه | گروه علوم و فناوری رایانه، دانشگاه پکن |
بیس | نیست ☓ |
مدل مفهومی | ندارد ☓ |
پرسشنامه | ندارد ☓ |
متغیر | دارد ✓ |
رفرنس | دارای رفرنس در داخل متن و انتهای مقاله ✓ |
کد محصول | F1698 |
مشخصات و وضعیت ترجمه فارسی این مقاله | |
فرمت ترجمه مقاله | pdf و ورد تایپ شده با قابلیت ویرایش |
وضعیت ترجمه | انجام شده و آماده دانلود |
کیفیت ترجمه | ترجمه ارزان – نقره ای ⭐️⭐️ |
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش | 15 صفحه با فونت 14 B Nazanin |
ترجمه عناوین تصاویر | ترجمه شده است ✓ |
ترجمه متون داخل تصاویر | ترجمه نشده است ☓ |
ترجمه ضمیمه | ندارد ☓ |
ترجمه پاورقی | ندارد ☓ |
درج تصاویر در فایل ترجمه | درج شده است ✓ |
منابع داخل متن | به صورت عدد درج شده است ✓ |
منابع انتهای متن | به صورت انگلیسی درج شده است ✓ |
کیفیت ترجمه | کیفیت ترجمه این مقاله پایین میباشد. |
فهرست مطالب |
چکیده |
بخشی از ترجمه |
چکیده
محاسبات ابر یک توسعه سیستم مبتنی بر اینترنت است که در آن منابع محاسباتی با مقیاس بزرگ پذیر به عنوان یک سرویس بر روی اینترنت برای کاربران ارائه شده اند. مفهوم محاسبات ابری شامل زیرساخت های وب ، نرم افزار به عنوان خدمات (SaaS) ، وب 2.0 و دیگر فن آوری های در حال ظهور می شود ، و بیشتر و بیشتر از جامعه صنعت و پژوهش جلب توجه نموده است. در این مقاله، ما تجربه و درس های آموخته شده در ساخت و ساز از پلت فرم محاسبات ابر را توضیح می دهیم. به طور خاص ، ما سیستم فایل سازگار GFS را با اندازه Chunk متغیر به منظور تسهیل پردازش گسترده داده ها طراحی می کنیم، و برخی از ارتقائات پیاده سازی بر روی MapReduce را به منظور بهبود توان عملیاتی سیستم معرفی می کنیم. همچنین در مورد برخی از مسائل عملی برای پیاده سازی سیستم بحث می کنیم. در انجمن آرشیو چین وب (وب سایت InfoMall) که ما از سال 2001 (در حال حاضر شامل بیش از سه میلیارد صفحات وب چینی) انباشته نموده ایم, این مقاله تلاش ما برای پیاده سازی یک پلت فرم برای دامنه سرویس محاسبات ابر خاص را با معدن نمودن وب متنی با مقیاس بزرگ به عنوان نرم افزار مورد هدف قرار داده ارائه می دهد. و امیدوارانه محققان در کنار تلاش های ما از ابر بهره مند خواهند شد هنگامی که آماده شود.
1- مقدمه
همانطور که جنبه های بیشتری از کار و زندگی شخصی آنلاین حرکت می کند و اینترنت پلت فرمی برای جامعه انسان های مجازی شده است، الگویی جدید در مقیاس بزرگ محاسبات توزیع شده بوجود آمده است. شرکت های مبتنی بر وب ، مانند گوگل و آمازون ، ، زیرساخت های وب را برای مقابله با اینترنت در مقیاس ذخیره سازی داده ها و محاسبات ساخته اند. اگر ما چنین زیرساختی را به عنوان “کامپیوتر مجازی” در نظر بگیریم، این مورد امکان مدل محاسباتی جدید را نشان می دهد, به عنوان مثال ، داده ها و محاسبات بر روی کامپیوتر “فوق العاده” با ذخیره سازی بی سابقه و محاسبات متمرکز، توانایی ها، که می تواند به عنوان ساده ترین شکل از محاسبات ابری به آن نگاه شود.
به طور کلی ، مفهوم محاسبات ابری می تواند شامل فن آوری های کامپیوتری مختلف ، از جمله ترکیب زیرساخت های وب ، وب 2.0 و بسیاری از فن آوری های دیگر در حال ظهور باشد. مردم ممکن است دارای دیدگاه های مختلف از بینش های مختلف باشند. به عنوان مثال، از نظر کاربر نهایی ، خدمات محاسبات ابر خدمات نرم افزار نرم افزار سیستم عامل را از دسکتاپ به سمت ابر حرکت می دهد که باعث می شود کاربران در هر زمان از هر کجا قادر به پلاگین باشند و از ذخیره سازی در مقیاس بزرگ و منابع محاسباتی استفاده نمایند. از سوی دیگر ، ارائه دهنده خدمات محاسبات ابری ممکن است روی این مورد تمرکز نماید که چگونه توزیع و برنامه ریزی منابع کامپیوتر صورت می گیرد. با این حال ، ذخیره سازی و محاسبات بر روی داده های عظیم از فن آوری های کلیدی در زیرساخت های ابر محاسبات است. گوگل فن آوری های زیرساخت های آن را برای محاسبات ابری در سال های اخیر توسعه داده است، از جمله سیستم فایل گوگل (GFS) [8] MapReduce [7] و Bigtable [6]. . GFS یک سیستم فایل توزیع مقیاس پذیر است، که بر تحمل خطا تاکید می کند زیرا برای به اجرا در آوردن اقتصادی مقیاس پذیر طراحی شده است، اما به ناچار سخت افزار کالای غیر قابل اعتماد (به دلیل به مقیاس محض خود) است، و خدمات با کارایی بالا را برای تعداد زیادی از مشتریان ارائه می دهد. Bigtable سیستم ذخیره سازی توزیع شده بر اساس GFS برای مدیریت داده های ساخت یافته است. این سیستم فراهم کننده چکیده نگاشت سه بعدی به برنامه ها است، و با موفقیت در بسیاری از محصولات مستقر گوگل به کار گرفته شده است. MapReduce یک مدل برنامه نویسی با پیاده سازی مربوط به پردازش داده های عظیم است. MapReduce یک چکیده را با تعریف “نگاشت کننده” و “کاهنده” فراهم می کند. “نگاشت کننده” برای هر جفت ورودی کلید / مقدار برای تولید تعداد دلخواه جفت کلید / مقدار میانی اعمال می شود. “کاهنده” برای به تمام مقادیر مرتبط با همان کلید میانی برای تولید جفت خروجی کلید / مقدار اعمال می شود. MapReduce یک مدل برنامه نویسی آسان برای استفاده است، و دارای توانایی بیان کافی برای پشتیبانی از الگوریتم های بسیاری از دنیای واقعی و این وظایف است. سیستم MapReduce می تواند با داده های ورودی پارتیشن بندی شود، اجرای برنامه در سراسر مجموعه برنامه ماشینها را زمانبندی نماید، وقوع خرابی های ماشین را هدایت نماید ، و ارتباط بین ماشینی را مدیریت نماید. به تازگی ، بسیاری از سیستم های مشابه توسعه یافته اند. KosmosFS [3] منبع باز مانند GFS – سیستم ، است که از رابط سخت POSIX پشتیبانی می نماید. Hadoop [2] پروژه منبع باز جاوا فعال است. با پشتیبانی از یاهو ، Hadoop پیشرفت زیادی را در این دو سال به دست آورد. این مورد در سیستمی بزرگ با 4000 گره مستقر شده است و در بسیاری از وظایف پردازش داده های مقیاس بزرگ مورد استفاده قرار گرفته است. در اکتبر 2007 ، گوگل و آی بی ام برنامه ” ابتکار ابر رایانه ” را برای دانشگاه ها در ترویج آموزش و پژوهش مربوط به کار بر روی محاسبات در مقیاس بزرگ به طور فزاینده مردمی راه اندازی نمودند. بعدها در ماه ژوئیه 2008 ، HP ، اینتل و یاهو یک ابتکار عمل مشابه را برای ترویج و توسعه ابر محاسبات تحقیقات و آموزش و پرورش راه اندازی نمودند.. چنین پروژه ابرمحاسباتی نه تنها می تواند محاسبات موازی آموزش و پرورش را بهبود دهد، بلکه کار پژوهش مانند مدیریت داده ها در مقیاس اینترنت ، پردازش و محاسبات علمی را ترویج می دهد. با الهام از این روند و با انگیزه نیاز به ارتقاء کار موجود، ما به پیاده سازی زیرساخت های عملی وب به عنوان پلت فرم ابر محاسبات پرداختیم که می تواند برای ذخیره داده ها در مقیاس وسیع وب و ارائه قابلیت پردازش عملکرد بالا مورد استفاده قرار گیرد. در دهه گذشته ، تمرکز تحقیقات ما و توسعه سیستم روی جستجو در وب ، وب هاست (هاستینگ) بوده است و ما دو سیستم وب سایت های عمومی، به عنوان مثال موتور جستجوی Tianwang [4] و وب infomall سایت سیستم بایگانی [1] را و نگهداری توسعه داده ایم, همانطور که در شکل 1 نشان داده شده است. |
بخشی از مقاله انگلیسی |
Abstract Cloud computing is Internet based system development in which large scalable computing resources are provided “as a service” over the Internet to users. The concept of cloud computing incorporates web infrastructure, software as a service (SaaS), Web 2.0 and other emerging technologies, and has attracted more and more attention from industry and research community. In this paper, we describe our experience and lessons learnt in construction of a cloud computing platform. Specifically, we design a GFS compatible file system with variable chunk size to facilitate massive data processing, and introduce some implementation enhancement on MapReduce to improve the system throughput. We also discuss some practical issues for system implementation. In association of the China web archive (Web InfoMall) which we have been accumulating since 2001 (now it contains over three billion Chinese web pages), this paper presents our attempt to implement a platform for a domain specific cloud computing service, with large scale web text mining as targeted application. And hopefully researchers besides our selves will benefit from the cloud when it is ready. 1 Introduction As more facets of work and personal life move online and the Internet becomes a platform for virtual human society, a new paradigm of large-scale distributed computing has emerged. Web-based companies, such as Google and Amazon, have built web infrastructure to deal with the internet-scale data storage and computation. If we consider such infrastructure as a “virtual computer”, it demonstrates a possibility of new computing model, i.e., centralize the data and computation on the “super computer” with unprecedented storage and computing capability, which can be viewed as a simplest form of cloud computing. More generally, the concept of cloud computing can incorporate various computer technologies, including web infrastructure, Web 2.0 and many other emerging technologies. People may have different perspectives from different views. For example, from the view of end-user, the cloud computing service moves the application software and operation system from desktops to the cloud side, which makes users be able to plug-in anytime from anywhere and utilize large scale storage and computing resources. On the other hand, the cloud computing service provider may focus on how to distribute and schedule the computer resources. Nevertheless, the storage and computing on massive data are the key technologies for a cloud computing infrastructure. Google has developed its infrastructure technologies for cloud computing in recent years, including Google File System (GFS) [8], MapReduce [7] and Bigtable [6]. GFS is a scalable distributed file system, which emphasizes fault tolerance since it is designed to run on economically scalable but inevitably unreliable (due to its sheer scale) commodity hardware, and delivers high performance service to a large number of clients. Bigtable is a distributed storage system based on GFS for structured data management. It provides a huge three-dimensional mapping abstraction to applications, and has been successfully deployed in many Google products. MapReduce is a programming model with associated implementation for massive data processing. MapReduce provides an abstraction by defining a “mapper” and a “reducer”. The “mapper” is applied to every input key/value pair to generate an arbitrary number of intermediate key/value pairs. The “reducer” is applied to all values associated with the same intermediate key to generate output key/value pairs. MapReduce is an easy-to-use programming model, and has sufficient expression capability to support many real world algorithms and tasks. The MapReduce system can partition the input data, schedule the execution of program across a set of machines, handle machine failures, and manage the inter-machine communication. More recently, many similar systems have been developed. KosmosFS [3] is an open source GFS-Like system, which supports strict POSIX interface. Hadoop [2] is an active Java open source project. With the support from Yahoo, Hadoop has achieved great progress in these two years. It has been deployed in a large system with 4,000 nodes and used in many large scale data processing tasks. In Oct 2007, Google and IBM launched “cloud computing initiative” programs for universities to promote the related teaching and research work on increasingly popular large-scale computing. Later in July 2008, HP, Intel and Yahoo launched a similar initiative to promote and develop cloud computing research and education. Such cloud computing projects can not only improve the parallel computing education, but also promote the research work such as Internet-scale data management, processing and scientific computation. Inspired by this trend and motivated by a need to upgrade our existing work, we have implemented a practical web infrastructure as cloud computing platform, which can be used to store large scale web data and provide high performance processing capability. In the last decade, our research and system development focus is on Web search and Web Mining, and we have developed and maintained two public web systems, i.e., Tianwang Search Engine [4] and Web Archive system Web infomall [1] as shown in Figure 1. |