دانلود رایگان ترجمه مقاله مدیریت مدل‌ سازی مفهومی (ساینس دایرکت – الزویر 2017)

 

 

این مقاله انگلیسی ISI در نشریه الزویر در 16 صفحه در سال 2017 منتشر شده و ترجمه آن 40 صفحه بوده و آماده دانلود رایگان می باشد.

 

دانلود رایگان مقاله انگلیسی (pdf) و ترجمه فارسی (pdf + word)
عنوان فارسی مقاله:

فناوری های اطلاعات بزرگ و مدیریت: چه مدل سازی مفهومی را می توان انجام داد

عنوان انگلیسی مقاله:

Big data technologies and Management: What conceptual
modeling can do

دانلود رایگان مقاله انگلیسی
دانلود رایگان ترجمه با فرمت pdf
دانلود رایگان ترجمه با فرمت ورد

 

مشخصات مقاله انگلیسی و ترجمه فارسی
فرمت مقاله انگلیسی pdf
سال انتشار 2017
تعداد صفحات مقاله انگلیسی 16 صفحه با فرمت pdf
نوع مقاله ISI
نوع نگارش مقاله پژوهشی (Research article)
نوع ارائه مقاله ژورنال
رشته های مرتبط با این مقاله مهندسی کامپیوتر – مهندسی فناوری اطلاعات
گرایش های مرتبط با این مقاله علوم داده – رایانش ابری یا محاسبات ابری – مدیریت سیستم های اطلاعاتی
چاپ شده در مجله (ژورنال)/کنفرانس مهندسی داده و دانش
ارائه شده از دانشگاه کالج بازرگانی، بخش سیستم های اطلاعات کامپیوتری، دانشگاه ایالتی جورجیا
نمایه (index) Scopus – Master Journal List – JCR
شناسه شاپا یا ISSN 1872-6933
شناسه دیجیتال – doi https://doi.org/10.1016/j.datak.2017.01.001
لینک سایت مرجع https://www.sciencedirect.com/science/article/abs/pii/S0169023X17300277
رفرنس دارای رفرنس در داخل متن و انتهای مقاله
نشریه الزویر – Elsevier
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  40 صفحه با فونت 14 B Nazanin
فرمت ترجمه مقاله pdf و ورد تایپ شده با قابلیت ویرایش
وضعیت ترجمه انجام شده و آماده دانلود رایگان
کیفیت ترجمه

مبتدی (مناسب برای درک مفهوم کلی مطلب) 

کد محصول F2345

 

بخشی از ترجمه

اطمینان: درستی به عدم اطمینان داده‌ها اشاره دارد. درستی مسائل مربوط به کیفیت، قابلیت اطمینان، عدم اطمینان، ناتمام بودن و معنای موجود در داده‌ها را افزایش می‌دهد (به عنوان مثال، تغییرات کلمه، داده‌های آب و هوا، تفسیر داده‌های دست نوشته). با این وجود، در نهایت، درستی باید به صورت خودکار پردازش شود. چالش درست باید باید با راه‌حل‌های صحیح حل شود.
ارزش: اطمینان به ارزش داده‌های بزرگ ممکن است دشوار باشد. اقدامات منطقی بر شناسایی دانش «عملی»؛ محاسبه، در صورت امکان، بازده سرمایه گذاری (ROI)؛ شناسایی روابط مشتریان (تحقیقات زیادی درباره تحلیل معادلات متن و احساسات ارائه شده است)؛ و سایر اقدامات متمرکز هستند. تحلیل مورد نیاز داده‌های بزرگ برای شناسایی ارزش از راه‌های مختلفی انجام می‌شود، از جمله: جست‌و‌جوی سنتی SQL، روش‌های یادگیری ماشین، داده‌کاوی، آمار، بهینه‌سازی، و تحلیل پشتیبانی از تصمیم. نتایج ممکن است در اشکال مختلف، از جمله تولید سند، استاندارد و ارائه گزارش و تجسم ارائه می‌شود. چالش ارزش برای رسیدن به اهداف سخت است، زیرا راه‌حل‌های پیچیده آن باید در درون حوزه کسب و کار یا مسأله آدرس‌دهی شوند. علاوه بر این، دانشمندان می‌توانند داده‌های موجود و واجد شرایط داده‌های بزرگ را با درک صحیح دامنه در نظر گیذند و با استفاده از ابزارهای تحلیلی به راحتی پیدا کنند.
بسط هفت V شامل اعتبار و نوسان است [18]. قابلیت اجرا، Vهای اضافی شامل تجسم، تنوع، آسیب‌پذیری، قابلیت مشاهده، عدم تردید و غیره، همگی باید مدیریت شوند. با این وجود، «درک» و برخورد با معانی داده‌ها همچنان یک چالش بزرگ است [38، 39 و 44].

2.2. زیرساخت مدیریت داده‌های بزرگ
برای تطابق با ابتکارات داده‌های بزرگ، شرکت‌ها زیرساخت‌هایی را برای مدیریت آن ایجاد کرده‌اند، داده‌های بزرگ را به عنوان دارایی ‌شرکت ساخته‌اند. زیرساخت نیاز به ابزار درست دارد و به طور کلی از اجزای زیر تشکیل شده است (کالاکوتا، 2012):
• پشته داده‌ها: شامل اطلاعات ساختار یافته و همچنین بدون ساختار است.
• اکوسیستم داده‌های بزرگ: شامل جست و جو و تجسم، تنظیم داده‌ها و دسترسی به داده‌ها است. خدمات حرفه‌ای برای داده‌های بزرگ عبارتند از شخت افزار، مانند کامپیوتر، ذخیره سازی و شبکه‌ها. خدمات مربوط به پایگاه داده خاص شامل سیستم‌های مبتنی بر SQL، سیستم های NoSQL و Hadoop و اکوسیستم‌های آن است.
• مدیریت اطلاعات سازمانی: بر مسائل مربوط به مدیریت داده‌ها، ادغام داده‌ها، کیفیت داده‌ها، تجسم داده‌ها و مدیریت داده‌های اصلی تمرکز دارد.
• سیستم‌های علمی داده‌ها و ابزار: ابزارهای مختلفی برای استخراج الگو تجسم ارائه شده است. این‌ها عبارتند از: الگوریتم یادگیری ماشین؛ تحلیل پیش‌بینی [12]؛ تکنیک‌های تجویزی (به عنوان مثال، شبیه‌سازی با متغیرهای جایگزین و زیرمجموعه داده‌ها)؛ تکنیک‌های توصیفی (به عنوان مثال، آمار و تکنیک‌های گزارش‌های تاریخچه)؛ و گزارش (به عنوان مثال، ارائه کارت امتیازی یا تابلوهای علامت).

2.3. الگوهای مبتنی بر داده‌ها
الگوهای هدایت‌کننده دارای پیامدهای تحلیل و تصمیم‌گیری هستند. تفاوت‌های مهم میان مدیریت داده‌های سنتی و الگوی جدیدتر به صورت زیر خلاصه می‌شود.
به جای استفاده از کل مجموعه داده‌ها می توان از نمونه‌گیری استفاده کرد. لین و همکاران [19] برای کاهش هزینه جمع‌آوری داده‌ها و تحلیل، آن را به عنوان نمونه برداری با اندازه «N» ارائه دادند و داده‌ها را به اندازه‌ای که ممکن است جمع‌آوری کردند [15].
همان طور که در فیلم مونیبال نشان داده شد، تحلیل داده‌ها به منظور درک صورت می‌گیرد، به عنوان مثال، ورزش بیس‌بال، به شیوه‌ای که قبلاً در نظر گرفته نشده استفاده می‌شود (http://blog.minitab.com/blog/the-statistics-game/money ball-shows-the-power-of-statistics).
سیستم کامپیوتری، دپ بلو [17]، یک قهرمان شطرنج را بر اساس تکنیک های ارائه شده در هوش مصنوعی شکست داد. بررسی آمازون (Amazon.com) که به ساکنین وب کمک می‌کند، ارزش آنها را بیش از توصیه کارشناسان نشان می‌دهد.
شناسایی دلیل همیشه ممکن نیست. سیستم‌های توصیه کننده مانند موارد استفاده شده در آمازون، مواردی را که با هم خرید می‌شوند شناسایی می‌کند. با این وجود، دلیل انجام آن را نشان نمی‌دهد.
این روند بسیاری از جنبه‌های غیرمعمول زندگی اجتماعی را به داده‌های کامپیوتری قابل تحلیل تبدیل می‌کند . ایده اصلی رفتار یا افکار انسان، جامعه و ماشین آلات برای ارائه برنامه‌های دیجیتالی جدید است.
داده‌های زیر به سطح جزئیاتی اشاره می‌کنند که داده‌ها در آن ذخیره می‌شوند (به عنوان مثال، سطح پایین اطلاعات به اطلاعات خلاصه بالاتر). با استفاده از تکنولوژی داده‌های بزرگ، داده‌های ریزتر پتانسیل بیشتری برای استخراج ارزش کسب و کار دارند و امکان استفاده مجدد در برنامه‌های متعدد را افزایش می‌دهند.
اجازه دهید داده ها برای خود صحبت کنند. این نشان دهنده ارزش آیتم فیزیکی مارک‌ها، ایده‌ها و حقوق فکری است.

2.4. رشد و چالش‌ها
پیشرفت در ذخیره‌سازی، شبکه، پردازنده مرکزی، و پهنای باند قابل توجه است. برای مثال هزینه ذخیره‌سازی ($ در هر ترابایت) از 14000000 دلار (1980) به حدود 50 دلار کاهش یافته است. تعداد گره‌های یک شرکت ممکن است از 1 (1969) به 1 ملیارد میزبان افزایش یافته باشد. هزینه هر GFLOPS هزینه مجموعه‌ای از سخت‌افزار است که از لحاظ نظری با 1 میلیارد نقطه شناور در ثانیه کار می‌کند. هزینه‌های پردازنده مرکزی از 1100000000 دلار (1961) به 08/0 دلار کاهش یافته است. پهنای باند ($ در هر مگابایت در ثانیه) که در سال 1998 تقریباً 120 دلار بوده است، در حال حاضر حدود 5 دلار هزینه دارد.
انفجار ناگهانی داده‌ها از ضبط خودکار، سنسورها و سایر منابع که به الگو هدایت داده منتهی می‌شود، برای تصمیم‌گیری در زمان واقعی و سایر فعالیت‌های متمرکز بر داده‌ها در نظر گرفته می‌شود. میزان بازار جهانی داده‌های بزرگ (سخت افزار، نرم‌افزار و خدمات) بیش از 50 میلیارد دلار تخمین زده شده است (ویکیبون، 2015). با توجه به پیشرفت‌های تکنولوژی‌های محاسباتی با قابلیت پردازش سریع‌تر، ارزان‌تر و قدرتمندتر به علت قانون مور و دیگر راه‌های جایگزین برای پیشرفت قابلیت محاسبات، داده‌های بزرگ بدست می‌آیند.
چالش‌های زیادی در رابطه با داده‌های بزرگ وجود دارد [45]، از جمله مشکلات، درک مقیاس آن برای انسان است. حجم بیش از حد بزرگ است و سرعت خیلی سریع است [14]. تنوع و صحت اطلاعات در ارائه راه‌حل‌های نرم‌افزاری چالش برانگیز است. ارزش بسیار جالب است و از طریق فرصت‌های بزرگ داده‌ها، راه‌حل‌های نوآورانه‌ای برای مسائل ارائه می‌دهد. علاوه بر این، تأثیر آن بر جامعه کسب و کار قابل توجه است.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا