دانلود رایگان ترجمه مقاله روشی دو مرحله ای جهت تبدیل متغیرهای پیوسته به معمولی – Semanticscholar 2011

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

یک رویکرد دو مرحله ای برای تبدیل متغیر های پیوسته به متغیر های نرمال: اهمیت ها و توصیه ها برای تحقیقات IS

عنوان انگلیسی مقاله:

A Two-Step Approach for Transforming Continuous Variables to Normal: Implications and Recommendations for IS Research

 
 
 
 
 

 

مشخصات مقاله انگلیسی (PDF)
سال انتشار 2011
تعداد صفحات مقاله انگلیسی 20 صفحه با فرمت pdf
رشته های مرتبط با این مقاله مهندسی فناوری اطلاعات و کامپیوتر
گرایش های مرتبط با این مقاله مدیریت سیستمهای اطلاعات، مهندسی الگوریتم ها و محاسبات
چاپ شده در مجله (ژورنال) ارتباطات انجمن سیستم های اطلاعاتی – Communications of the Association for Information Systems
کلمات کلیدی مدل سازی ریاضی، رشته، بین رشته ای، تئوری مرجع، اهمیت تئوری
ارائه شده از دانشگاه گروه مدیریت و اطلاعات، دانشگاه ایالتی می سی سی پی
رفرنس دارد  
کد محصول F1157
نشریه Semanticscholar

 

مشخصات و وضعیت ترجمه فارسی این مقاله (Word)
وضعیت ترجمه انجام شده و آماده دانلود
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  25 صفحه با فونت 14 B Nazanin
ترجمه عناوین تصاویر و جداول ترجمه شده است 
ترجمه متون داخل تصاویر ترجمه نشده است  
ترجمه متون داخل جداول ترجمه شده است  
درج تصاویر در فایل ترجمه درج شده است 
درج جداول در فایل ترجمه درج شده است 
درج فرمولها و محاسبات در فایل ترجمه  به صورت عکس درج شده است  
منابع داخل متن به صورت فارسی درج شده است 
کیفیت ترجمه کیفیت ترجمه این مقاله متوسط میباشد 
توضیحات یک بخش از این مقاله ترجمه نشده است.

 

فهرست مطالب
چکیده
مقدمه
پیش زمینه
الگوریتم تبدیل
منشاء
منطق
محدودیت ها
تعداد سطوح
اثر حالت ها و شیوه ها
تمایزات
کاربرد در نرم افزار آماری
SPSS
SAS
مثال های گویا
تحلیلی که منجر به نرمال- امکان سنجی می شود
بحث
اهمیت این روش برای موضوعات علمی
اهمیت ها برای استنباط علی
اهمیت برای تحقیقات آینده در خصوص رویکرد دو مرحله ای
کاربرد رویکرد 
توصیه ها
نتیجه گیری
 

 

بخشی از ترجمه
 چکیده
این مقاله به توصیف یک رویکرد دو مرحله ای برای تبدیل متغیر های پیوسته با توزیع غیر نرمال به متغیر های با توزیع نرمال می پردازد. مرحله 1شامل تبدیل متغیر به یک رتبه درصدی(صدک) می باشد که منجر به احتمالات با توزیع یکنواخت می شود. مرحله 2 از تبدیل نرمال معکوس برای نتایج اولین مرحله برای تشکیل یک متغیر متشکل از امتیازات Z توزیع نرمال استفاده می کند. این رویکرد در منابع و مطالعات به غیر از منابع آماری کم تر شناخته شده است و به ندرت در علوم اجتماعی مورد استفاده قرار گرفته است و هنوز در هیچ مطالعه IS مورد استفاده قرار نگرفته است. این مقاله نشان می دهد که چگونه بایستی رویکرد را در اکسل، SPSS، SAS پیاده کرده و سپس به توضیح اهمیت ها و توصیه هایی برای تحقیقات IS می پردازد.
 
1- مقدمه
از دیرباز، تبدیلات داده ها(برای مثال ، توان ولگاریتم) از طریق بهبود نرمال بودن و با استفاده از رویکرد آزمون و خطا انجام می شده اند.متاسفانه، به ندرت محققان به نرمالیته آماری از طریق تست های تشخیصی پذیرفته شده دست پیدا می کردند( تست های پذیرفته شده شامل کلوموگروف-اسمیرنوف، P-P پلات، چولگی،کشیدگی بوده اند). این تحقیق به بررسی یک رویکرد ساده ولی قوی می پردازد که موسوم به رویکرد دو مرحله ای بوده و برای تبدیل بسیاری از متغیر های پیوسته با توزیع غیر نرمال به نرمالیته آماری(متغیر های با توزیع نرمال)استفاده شده است( این نشان می دهد که تست های تشخیصی مناسب برای نرمالیته وجود دارند). تبدیل پیشنهادی میتواند به چولگی، کشیدگی و یا ازمون نرمال بودن قابل قبول در بسیاری از شرایط دست پیدا کرده وموجب نرمال بودن در موارد دیگر می شود. به جز دو محدودیتی که در ادامه گفته شده است، این رویکرد نرمال بودن توزیع متغیر حاصله را بهینه سازی می کند. روش دومرحله ای یک استاندارد ایده ال را برای تبدیل متغیر ها به نرمال بودن و یک دیدگاه جدید را در خصوص تحقیقات MIS در اختیار می گذارد.
در مطالعات مربوط به اثرات غیر نرمال بودن بر روی آزمون های همبستگی، تحقیقات قبلی از داده های شبیه سازی استفاده کرده اند ( برای مثال، فیگلمن 2009)، در حالی که روش دو مرحله ای پیشنهاد شده امکان استفاده از متغیر های مشاهده شده را خواهد داد. برای مثال، پارادوکس بهره وری، اصطلاحی است که ناتوانی سیستم های پیچیده را در کشف روابط بین طیف وسیعی از معیار های سرمایه گذاری فناوری اطلاعات و بهره وری سازمانی نشان می دهد. در همین رابطه، تعداد زیادی از تحقیقات علمی چند رشته ای برای درک بهتر مسیر های خاص نظیر رابطه بین سرمایه گذاری فناوری اطلاعات و عملکرد مالی ارایه شده اند( برینفلسون و هیت 2003). علی رغم تلاش های زیاد در رشته های مختلف، توجه کمی به مفهوم پارادوکس شده است و نکته جالب این است که مطالعات مربوط به این موضوع به ندرت ابعاد توزیعی داده ها را ذکر کرده اند. مطالعات شبیه سازی، که از داده های بدون تئوری برای مطالعه اهمیت و اثرات نرمال بودن استفاده می کنند،نمی توانند مستقیما یک مسیر پارادوکس را توسعه دهند. بر عکس، روش دومرحله ای پتانسیل تبدیل متغیر های مشاهده شده را به نرمال بودن آماری و درک اثرات پایین دست را بر روی یافته های مطالعه نظیر اندازه اثر اصلی تبدیل می کند.
در میان ده ها توزیع عمومی موجود،توزیع نرمال دارای کاربرد بسیاری در تحقیقات کیفی می باشد. بسیاری از روش های آماری( رگرسیون چند گانه، تحلیل عاملی) مورد استفاده در تحقیقات کمی، به نرمال بودن حساس می باشند. برای مثال، وجود نرمال بودن، موجب بهبود تشخیص تفاوت های بین گروهی در هر دو مدل سازی معادلات ساختاری مبتنی بر مولفه و کواریانس شده است( کارشی و کامپیو 2009). بهبود نرمال بودن موجب کاهش ناهم واریانسی در pp پلات شده( هیر و همکاران 2010) و به این ترتیب موجب افزایش سطح همبستگی آماری بین دو متغیر شده است.
رویکرد پیشنهادی به بررسی چهار خلاء و شکاف در تحقیقات IS می پردازد. اولا، همان طور که در بخش بعدی نشان داده شده است، مسئله نرمال بودن در مطالعات مورد بررسی قرار گرفته است. دوما، رویکرد تبدیل دومرحله ای در این جا در همه تحقیقات IS تا کنون استفاده نشده است.در نتیجه محققان از این روش کم تر آگاه بوده اند. برای اولین بار، این راهنمای آموزشی، به بررسی IS پرداخته است. سوما، روند تغییرات اخیر در زمینه رایانش، سنجش از دور و رایانش ابری موجب شده اند تا داده های زیادی برای بسیاری از سازمان ها و اعضای جامعه اطلاعات ارایه کند. افزایش دسترسی به داده ها موجب افزایش وابستگی جامعه به تحلیل این داده ها می شود. برای مثال، داده کاوی در حال افزایش بوده و این مسئله منجر به افزایش اهمیت آزمون های سببی و علی شده است. چهارما، به دلیل دسترسی به دیتابیس های الکترونیکی جامع و کم هزینه، محققان به مسئله کاهش داده ها علاقه مند بوده اند. در نتیجه، مطالعات ساخت شاخص ترکیبی که متکی به نتایج تست های همبستگی بین متغیر های گروه بندی شده منطقی بوده اند، مهم تر است. اگرچه رویکرد دو مرحله ای در مطالعات استفاده کننده از داده های پیوسته اهمیت دارد،بااین حال برای افرادی که از انجمن تحقیقات IS بین رشته ای استفاده می کنند سودمند است.
هدف این راهنمای آموزشی بررسی و شفاف سازی یک رویکرد تدبیلی است که به پیشبرد موضوعات مربوط به غیر نرمال بودن داده های پیوسته کمک می کند. اهمیت این مقاله، توصیف روش جدید و پتانسیل آن برای ارایه دیدگاه های جدید در تحقیقات IS می باشد. اگرچه هر مرحله به طور مجزا در علوم اجتماعی استفاده شده است، اصلیت این مقاله، مربوط به توصیف دو مرحله برای تبدیل متغیر های مشاهده شدهبه نرمال بودن است. به خصوص، الگوریتم معرفی شده در تحقیقات توصیف نشده است. از این روی، مقاله به عنوان یک ابزاری است که محققان IS از آن برای تعیین این که آیا قادر به بهبود دانش نظری و میزان پیشرفت علمی در رشته ISمیباشند یا خیر استفاده می کنند.
این مقاله یک پیش زمینه ای از مفاهیم اساسی را ارایه کرده و به توضیح الگوریتم منطقی مورداستفاده محققان پرداخته و نیز به بررسی کاربرد آن در سه نرم افزار پرداخته و مثال هایی در رابطه با کاربرد آن بر روی داده های مشاهده شده ارایه می کند. سپس این مقاله در مورد اهمیت آن برای رابطه IS، کاربرد روش و توصیه هایی برای محققان بحث کرده و در نهایت مروری بر نتیجه گیری نهایی دارد.

 

بخشی از مقاله انگلیسی

Abstract

This article describes and demonstrates a two-step approach for transforming non-normally distributed continuous variables to become normally distributed. Step 1 involves transforming the variable into a percentile rank, which will result in uniformly distributed probabilities. Step 2 applies the inverse-normal transformation to the results of the first step to form a variable consisting of normally distributed z-scores. The approach is little-known outside the statistics literature, has been scarcely used in the social sciences, and has not been used in any IS study. The article illustrates how to implement the approach in Excel, SPSS, and SAS and explains implications and recommendations for IS research.

1 Introduction

Traditionally, data transformations (e.g., power and logarithm) have been pursued by improving normality incrementally using a trial-and-error approach. Unfortunately, it is rarely the occasion that a researcher may actually achieve statistical normality as indicated by accepted diagnostics tests (e.g., Kolmogorov-Smirnov, P-P plot, skewness, kurtosis). This research demonstrates a simple yet powerful approach herein referred to as the TwoStep, which may be used to transform many non-normally distributed continuous variables toward statistical normality (i.e., satisfies the preponderance of appropriate diagnostics tests for normality). The proposed transformation can achieve statistically acceptable kurtosis, skewness, and an overall normality test in many situations and improve normality in many others. With the exception of two limitations described later, the approach optimizes normality of the resulting variable distribution. The Two-Step offers an ideal standard for transforming variables toward normality and a new perspective on MIS research. In studies on the effects of non-normality on association tests, prior research has used simulated data [e.g., Figelman, 2009], whereas the proposed Two-Step procedure will enable the use of observed variables. For example, the Productivity Paradox is a term that describes the perplexing inability of information systems (IS) 1 researchers to uncover relationships between a range of information technology (IT) investment criteria and organizational productivity. Within this topic, a tremendous amount of multidisciplinary scholarly effort has been expended to better understand specific streams, such as the relationship between IT investment and financial performance [Brynjolfsson and Hitt, 2003]. Despite the enormity of effort and its prominence across disciplines, very little resolution has been made to the Paradox and, surprisingly, studies on the subject rarely mention the distributional aspects of underlying data. Simulation studies, which use data devoid of theory to study normality implications, cannot directly advance the Paradox stream. By contrast, the Two-Step offers the potential to transform observed variables toward statistical normality and the realization of downstream effects on study findings, such as main effect sizes. Among the dozens of generic distributions available, the normal distribution has the most applications in quantitative research. Many parametric statistical procedures (e.g., multiple regression, factor analysis) used in quantitative research are sensitive to normality. For instance, the presence of normality has been shown to improve the detection of between-groups differences in both covariance and components-based structural equation modeling [Qureshi and Compeau, 2009]. Improved normality will reduce the heteroscedasticity shown in P-P plots [Hair et al., 2010], thereby increasing the level of statistical correlation observed between two variables. The proposed approach addresses at least four voids that may be observed in IS research. First, as will be demonstrated in the following section, normality has barely been addressed in IS studies that should address the issue. Second, the Two-Step transformation approach presented here has not been used at all in IS research to date. Consequently, researchers have had no exposure and have been unaware of the technique. For the first time, this tutorial makes the approach available to the IS community as a method and subject of research. Third, recent trends in pervasive computing, remote sensing, and cloud computing are making dramatically more data available to more organizations and members of the ―information society.‖ The greater availability of data will only increase the societal reliance on analyses of such data. For example, data mining is proliferating and raising the importance of causal testing in practice. Fourth, due to the availability of less expensive and more comprehensive electronic databases, researchers are more interested in data reduction than ever. Consequently, rigorous formative index construction studies, which rely heavily on the results of intercorrelation tests between logically grouped variables, is more important. While the Two-Step approach is relevant in studies utilizing any continuous data, it is perhaps more useful to those in the highly multidisciplinary IS research community. The purpose of this tutorial is to illuminate a transformation approach that promises to help advance any topic constrained by the non-normality of continuous data. The significance of the article is in its description of a novel procedure and its potential for providing a new perspective on IS research. While each step has been used disparately in the social sciences, the originality of this manuscript lies in its description of two steps for transforming observed variables toward normality. In particular, the algorithm introduced here has not been described or studied in published research. Therefore, the article serves as a means by which IS researchers can access the approach to determine if it will improve theoretical understandings and rates of scientific advancement in the IS discipline. This article provides a background of foundational concepts, explains a logical algorithm researchers may follow, illustrates its use in three common software applications, and provides examples of its application to observed data. The article then discusses its implications for IS scholarship, uses of the approach and recommendations for researchers, and a brief conclusion.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا