این مقاله انگلیسی ISI در نشریه Jstor در 48 صفحه در سال 2011 منتشر شده و ترجمه آن 88 صفحه میباشد. کیفیت ترجمه این مقاله ارزان – نقره ای ⭐️⭐️ بوده و به صورت کامل ترجمه شده است.
دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی | |
عنوان فارسی مقاله: |
اندازه گیری ساختار و روش های ارزیابی در MIS و پژوهشی رفتاری: تلفیق فنون فعلی و جدید |
عنوان انگلیسی مقاله: |
Construct Measurement and Validation Procedures in MIS and Behavioral Research: Integrating New and Existing Techniques |
|
مشخصات مقاله انگلیسی (PDF) | |
سال انتشار | 2011 |
تعداد صفحات مقاله انگلیسی | 48 صفحه با فرمت pdf |
رشته های مرتبط با این مقاله | مدیریت – مهندسی فناوری اطلاعات |
گرایش های مرتبط با این مقاله | مدیریت سیستم های اطلاعاتی – سیستم های اطلاعاتی پیشرفته |
چاپ شده در مجله (ژورنال) | فصلنامه سیستم اطلاعات مدیریت – MIS Quarterly |
کلمات کلیدی | روش های ارزشیابی ساختار، توسعه شاخص و ارزشیابی، محتوی، همگرا، اعتبار افتراقی و قانونی، مدل های شاخص تکوینی و انعکاسی |
ارائه شده از دانشگاه | گروه بازاریابی، دانشکده کسب و کار کلی، دانشگاه ایندیانا، ایالات متحده آمریکا |
رفرنس | دارد ✓ |
کد محصول | F1233 |
نشریه | Jstor |
مشخصات و وضعیت ترجمه فارسی این مقاله (Word) | |
وضعیت ترجمه | انجام شده و آماده دانلود |
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش | 88 صفحه با فونت 14 B Nazanin |
ترجمه عناوین تصاویر و جداول | ترجمه شده است ✓ |
ترجمه متون داخل تصاویر | ترجمه نشده است ☓ |
ترجمه متون داخل جداول | ترجمه شده است ✓ |
ضمیمه | ترجمه شده است ✓ |
درج تصاویر در فایل ترجمه | درج شده است ✓ |
درج جداول در فایل ترجمه | درج شده است ✓ |
منابع داخل متن | به صورت فارسی درج شده است✓ |
کیفیت ترجمه | کیفیت ترجمه این مقاله متوسط میباشد |
فهرست مطالب |
مقدمه |
بخشی از ترجمه |
چکیده
علی رغم این واقعیت که ارزشیابی شاخص های ساختار برای ایجاد دانش ترکیبی در سیستم های اطلاعات مدیریتی و علوم رفتاری امری حیاتی است، فرایند توسعه مقیاس و ارزشیابی روز به روز به یک فعالیت چالش بر انگیز تبدیل می شود. بدون شک، بخشی از مسئله این است که بسیاری از روش های توسعه مقیاس عنوان شده در منابع دارای محدودیت های ذیل می باشند:1- به طور کافی قادر به بحث در خصوص چگونگی ارایه تعاریف مفهومی مناسب از ساختار کانونی نمی باشند2- اغلب قادر به تعیین مناسب مدل اندازه گیری که ساختار نهفته را به شاخص های آن ارتباط دهد نیستند، و 3- فنونی را که شواهد خوبی در خصوص این که مجموع ایتم های مورد استفاده برای نشان دادن ساختار کانونی در واقع مقاد آن را اندازه گیری می کند را در نظر نمی گیرد. بنابراین، هدف مطالعه حال حاضر تلفیق فنون جدید و موجود به یک مجموعه جامعه از توصیه هایی است که می توان از آن ها برای ارایه یک چارچوب برای توسعه شاخص ها و معیار های اندازه گیری معتبر به محققان علوم رفتاری و سیستم مدیریت اطلاعات استفاده کرد. نخست، ما به طو رمختصر به برخی از محدودیت های عملیات توسعه مقیاس فعلی خواهیم پرداخت. بعد از آن، ما در خصوص مراحل فرایند توسعه مقیاس ضمن توجه ویژه به تفاوت های مورد نیاز هنگام تلاش برای ایجاد مقیاس هایی برای ساختار هایی با شاخص های تکوینی بر خلاف ساختار هایی با شاخص های انعکاسی بحث خواهیم کرد. در نهایت، چندین موردی که باید بعد از توسعه اولیه شاخص برای آزمون تعمیم پذیری آن و بهبود اهمیت و کارایی ان انجام شوند ذکر خواهیم کرد.
1- مقدمه
بیش از بیست سال پیش استراب 1989 ارزیابی خود را از منابع علمی سیستم مدیریت اطلاعات ارایه کرد:
ارزشیابی ابزار به طور ناکافی در تحقیقات سیستم مدیریت اطلاعات مورد بحث و بررسی قرار گرفته است. تنها تعداد معدودی از محققان توجه جدی به مسائل اندازه گیری طی چند دهه گذشته معطوف کرده اند و این در حالی است که مطلوبیت صحت سنجی و تایید یافته ها از طریق اعتبار درونی توسط جارونپا و همکاران 1984 استدلال شده ولی ارزش قبلی و مهم ارزشیابی ابزار هنوز به طور گسترده درک نشده است( صفحه 147). تقریبا 12 سال بعد، در یک شیوه گذشته نگرانه از مقاله استراب، بودرو و همکاران 2001 به بررسی منابع سیستم مدیریت اطلاعات جهت ارزیابی این که آیا پیشرفتی در استفاده از فنون ارزیابی ساختار وجود داشته است، پرداخته و به این نتیجه رسید که یافته های آن ها حاکی از آن است که این زمینه پیشرفت های زیادی را در بخش های متعدد داشته با این حال به طور کلی، به نظر می رسد که اکثریت مطالعات منتشر شده هنوز به طور کافی به ارزیابی و اعتبار سنجی ابزار های آن ها نپرداخته اند( صفحه 1). نگرانی ها و مسائل مشابه در خصوص عملیات مورد استفاده برای اعتبار بخشی و ارزیابی ساختار ها در زمینه مدیریت توسط اسکاندرا و ویلیامز(2000) بیان شده است طوری که آن ها به مقایسه عملیات روش شناسی گزارش شده در سه مجله برتر در دو دوره زمانی متفاوت ( 1985-1987 و 1995-1997) پرداختند و به این نتیجه رسیدند که در واقع کاهشی در نسبت مطالعاتی که گزارشاتی را در خصوص اعتبار ساختار و گزارشات اعتبار افتراقی، همگرایی و پیش بینی کننده وجود دارد. از این روی، گفته باگوزی و فیلیپس (1982- صفحه 468) که 25 سال پیش عنوان شده بود هنوز هم نمود واقعی و حقیقت پیدا کرده است: دانشمندان پی بردند که ترجمه این اصطلاح به ظاهر ساده(اعتبار سنجی ساختار) به اصطلاحات عملیاتی بسیار مشکل است. دلیل عدم پیشرفت محسوب در این زمینه مطلقا ناشی از کمبود مقالات علمی نوشته شده در خصوص روش های فنی که باید برای اعتباربخشی و ارزشیابی مقیاس ها استفاده شوند نیست( برای مثال، اندرسون و گربینک 1988، اندرسون و همکاران 1987، باگوزی و همکاران 1991، دیامانتوپلوس و وینکلوفر 2001، ادوارد 2001، فورنل و لارکر 1981، گربینک و اندرسون 1988، نانلی و برنشتاین 1994، استراب و همکاران 2004). با این حال یک احتمال این است که محققانی که این مقالات را می خوانند تنها بخشی از آن چه گفته شد را درک می کنند زیرا بسیاری از این مقالات بسیار پیچیده بوده و مستلزم دانش فناوری بسیار پیشرفته و توسعه یافته از روش های مدل سازی معادله ساختاری است. نتیجه این است که خوانندگان ممکن است درک نکنند که چگونه می توان توصیه های انجام شده در این مقالات را به کار گرفت. با این حال یک احتمال این است که مطالعاتی در خصوص موضوع توسعه مقیاس و ارزیابی وجود دارد که اولویت بندی کارهای مهم برای محققان بسیار مشکل است. در واقع، اعتقاد ما بر این است که یک دلیل مهم مفید واقع شدن مقاله چورچیل 1979 برای محققان این است که مجموعه سازمان یافته از فعالیت هایی که برای انجام کار های مهم در توسعه مقیاس و فرایند ارزیابی باید الویت بندی شوند را به صورت فهرست در آورده است. از این روی با الهام از مقاله چرچیل، هدف این مطالعه ارایه مجموعه توصیه های به روز است که می تواند برای ایجاد چارچوبی برای توسعه مقیاس های معتبر مورد استفاده قرار گیرد. ما اعتقاد داریم که در خصوص این که چرا یک مجموعه به روز از توصیه ها مفید هستند، چندین دلیل وجود دارد. نخست، بسیاری از روش های توسعه مقیاس در منابع علمی به خوبی در خصوص چگونگی ایجاد تعاریف مفهومی مناسب از ساختار کانونی بررسی نشده اند. دوما، بسیاری از توصیه ها بر اساس تشریح نامناسب مدل اندازه گیری می باشند که متغیر های پنهان معرف یک ساختار را به شاخص های اندازه گیری آن ارتباط می دهند. در نهایت، فنونی که شواهدی در اختیار می گذارند که نشان می دهند مقیاس در واقع به اندازه گیری ان چه که برای اندازه گیری مقدر است را در منابع مدیریت و سیستم اطلاعات مدیریتی در نظر نمی گیرد.نخست، ما به طو رمختصر به برخی از محدودیت های عملیات توسعه مقیاس فعلی خواهیم پرداخت. بعد از آن، ما در خصوص مراحل فرایند توسعه مقیاس ضمن توجه ویژه به تفاوت های مورد نیاز هنگام تلاش برای ایجاد مقیاس هایی برای ساختار هایی با شاخص های تکوینی بر خلاف ساختار هایی با شاخص های انعکاسی بحث خواهیم کرد. در نهایت، چندین موردی که باید بعد از توسعه اولیه شاخص برای آزمون تعمیم پذیری آن و بهبود اهمیت و کارایی ان انجام شوند ذکر خواهیم کرد. |
بخشی از مقاله انگلیسی |
Despite the fact that validating the measures of constructs is critical to building cumulative knowledge in MIS and the behavioral sciences, the process of scale development and validation continues to be a challenging activity. Undoubtedly, part of the problem is that many of the scale development procedures advocated in the literature are limited by the fact that they (1) fail to adequately discuss how to develop appropriate conceptual definitions of the focal construct, (2) often fail to properly specify the measurement model that relates the latent construct to its indicators, and (3) underutilize techniques that provide evidence that the set of items used to represent the focal construct actually measures what it purports to measure. Therefore, the purpose of the present paper is to integrate new and existing techniques into a comprehensive set of recommendations that can be used to give researchers in MIS and the behavioral sciences a framework for developing valid measures. First, we briefly elaborate upon some of the limitations of current scale development practices. Following this, we discuss each of the steps in the scale development process while paying particular attention to the differences that are required when one is attempting to develop scales for constructs with formative indicators as opposed to constructs with reflective indicators. Finally, we discuss several things that should be done after the initial development of a scale to examine its generalizability and to enhance its usefulness. 1 Introduction It has been over 20 years since Straub (1989) made the following observation about the MIS literature: Instrument validation has been inadequately addressed in MIS research. Only a few researchers have devoted serious attention to measurement issues over the last few decades…and while the desirability of verifying findings through internal validity checks has been argued by Jarvenpaa, et al. (1984), the primary and prior value of instrument validation has yet to be widely recognized (p. 147). Approximately a dozen years later, in a retrospective on the Straub article, Boudreau et al. (2001) surveyed the MIS literature again to assess whether there had been any improvement in the use of construct validation techniques, and concluded that their “findings suggest that the field has advanced in many areas, but, overall, it appears that a majority of published studies are still not sufficiently validating their instruments.” (p. 1). Similar concerns regarding the practices used to validate constructs have also been expressed in the field of management by Scandura and Williams (2000), who compared the methodological practices reported in three top journals in two different time periods (1985–1987 and 1995– 1997), and concluded that there had actually been a decrease in the proportion of studies that reported information about construct validity and reports of discriminant, convergent, and predictive validity. Therefore, the observation that Bagozzi and Phillips (1982, p. 468) made over 25 years ago still rings true: “Scientists have found it very difficult to translate this seemingly simple notion [of construct validity] into operational terms.” The reason for the apparent lack of progress in this area certainly is not due to a shortage of articles written on the technical procedures that should be used to validate scales (e.g., Anderson and Gerbing 1988; Anderson et al. 1987; Bagozzi et al. 1991; Diamantopoulos and Winklhofer 2001; Edwards 2001; Fornell and Larcker 1981; Gerbing and Anderson 1988; Nunnally and Bernstein 1994; Straub et al. 2004). However, one possibility is that the researchers reading these articles absorb only a portion of what is said because many of these articles are complex and require a fairly well-developed technical knowledge of structural equation modeling procedures. The result is that readers may not understand how to implement the recommendations made in these articles. An even more likely possibility is that there is simply so much work on the topic of scale development and evaluation that it is difficult for researchers to prioritize what needs to be done. Indeed, we believe that one reason Churchill’s (1979) seminal article has proven to be so useful to researchers is that he outlined an organized set of activities that set priorities for what needs to be done in the scale development and evaluation process. Therefore, in the spirit of Churchill, the goal of this research is to provide an updated set of recommendations that can be used to give researchers a framework for developing valid scales. We believe that there are several reasons why an updated set of recommendations would be useful. First, many of the scale development procedures advocated in the literature fail to adequately discuss how to develop appropriate conceptual definitions of a focal construct. Second, many of the recommendations are based on an improper specification of the measurement model2 that relates the latent variable representing a construct to its measures.3 Finally, techniques that provide evidence that the scale actually measures what it purports to measure have been underutilized in the management and MIS literatures. In the sections that follow, we will briefly elaborate on each of the limitations identified above. Following this, we will discuss each of the steps in the scale development process while paying particular attention to the differences that are required when one is attempting to develop scales for constructs with formative indicators as opposed to constructs with reflective indicators. Finally, we discuss several steps that should be taken after the initial development of a scale to examine its generalizability and to enhance its usefulness. |