محاسبه اندازه اثر در طرحهای تکآزمودنی با استفاده از روشهای ناهمپوش
الموضوعات :الناز موسی نژاد جدی 1 , شهرام واحدی 2 , محمد علی نظری 3 , تورج هاشمی نصرت آباد 4
1 - دانشکده روانشناسی، دانشگاه تبریز
2 - هیئت علمی دانشگاه تبریز
3 - دانشگاه تبریز
4 - دانشیار گروه روانشناسی دانشگاه تبریز
الکلمات المفتاحية: اندازه اثر, روشهای ناهمپوش, طرح تک آزمودنی,
ملخص المقالة :
گزارش اندازه اثر در طرحهای تک آزمودنی در سالهای اخیر بسیار مورد توجه قرار گرفته است. روشهای متنوعی برای محاسبه اندازه اثر در طرحهای تک آزمودنی وجود دارد. پژوهش حاضر با هدف توصیف محاسبه اندازه اثر با استفاده از روشهای ناهمپوش که غیرپارامتریک و نابسته به توزیع هستند و همچنین بررسی نقاط قوت و ضعف هر یک از این روشها را انجام شد. در یک پژوهش تک آزمودنی از نوع AB دوازده جلسه درمان نوروفیدبک برای بررسی اثربخشی آن بر بهبود توجه بینایی- فضایی در یک کودک 8 ساله مبتلا به اختلال خواندن انجام شد. برای جمعآوری دادهها از آزمون پاسنر استفاده شد و برای تحلیل دادهها، اندازه اثر با استفاده از روشهای ناهمپوش PND، PAND، ECL، PEM، NAP و TAUnovlap محاسبه شد. نتایج پژوهش نشان داد که میزان اندازه اثر با استفاده از روشهای ناهمپوش بین 69 تا 84 درصد بهدست آمد که نشاندهنده اثربخشی مثبت نوروفیدبک در بهبود توجه بینایی- فضایی بود. پژوهش حاضر میتواند راهنمای پژوهشگران و درمانگران در نحوه استفاده از روشهای ناهمپوش برای محاسبه اندازه اثر در طرحهای تک آزمودنی و تصمیمگیری درباره اثرات درمان باشد.
Barlow, D.H., Nock, D.H., & Hersen, M. (2009). Single Case Experimental Designs: Strategies for Studying Behavior for Change. Boston: Pearson Education.
Burns, M.K. & Wagner, D. (2008). Determining an Effective Intervention within a Brief Experimental Analysis for Reading: A Meta-Analytic Review. School psychology review, 37(1), 126-136.
Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. Hillsdale, NJ: Lawrence Erlbaum.
Campbell, J.M. (2004). Statistical Comparison of Four Effect Sizes for Single-Subject Designs. Behavior modification, 28(2), 234-246.
Ferguson, C.J. (2009). An Effect Size Primer: A Guide for Clinicians and Researchers. Professional Psychology: Research and Practice, 40(5), 532-538.
Horner, R.H., Carr, E.G., Halle, J., Mcgee, G., Odom, S. & Wolery, M. (2005). The use of single-subject research to identify evidence-based practice in special education. Exceptional Children, 71(2), 165-179.
Huberty, C.J. (2002). A history of effect size indices. Educational and Psychological Measurement, 62(2), 227-240.
Lenz, A.S. (2013). Calculating Effect Size in Single-Case Research: A Comparison of Nonoverlap Methods. Measurement and Evaluation in Counseling and Development, 46(1), 64–73.
MA, H. (2006). An Alternative Method for Quantitative Synthesis of Single-Subject Researches: Percentage of Data Points Exceeding the Median. Behavior modification, 30(5), 598-617.
Parker, R.I., & Hagan-Burke, S. (2007). Useful effect size interpretations for single case research. Behavior Therapy, 38, 95–105.
Parker, R.I., Hagan-Burke, S., & Vannest, K. (2007). Percentage of All Non-Overlapping Data (PAND): An Alternative to PND. Journal of special education, 40(4), 194–204.
Parker, R.I., & Vannest, K. (2009). An Improved Effect Size for Single-Case Research: Non-overlap of All Pairs. Behavior Therapy, 40, 357–367.
Parker, P.I., Vannest, K.J., & Brown, L. (2009). The improvement rate difference for single case research. Council for Exceptional Children, 75(2), 135-150.
Parker, P.I., Vannest, K.J., & Davis, J.L. (2011). Effect Size in Single-Case Research: A Review of Nine Nonoverlap Techniques. Behavior Modification, 35(4), 303–322.
Posner, M.I., & Cohen, Y. (1984). Components of visual orienting. In: Bouma, H., Bowhuis, D., editors. Attention and Performance. Hillsdale, NJ: Lawrence Erlbaum, 531–556.
Rakap, S., Snyder, P., & Pasia, C. (2014). Comparison of nonoverlap methods for identifying treatment effect in single-subject experimental research. Behavioral Disorders, 128-145.
Tillman, C.R., & Burns, M.K. (2009). Evaluating Educational Interventions Single-Case Design for Measuring Response to Intervention. New York & London: Guilford press.
Wendt, O. (2009). Calculating Effect Sizes for Single-Subject Experimental Designs: An Overview and Comparison. The Ninth Annual Campbell Collaboration Colloquium, available from: http://www.edst.purdue.edu/aac.
Wolery, M., Busick, M., Reichow, B., & Barton, E. (2010). Comparison of Overlap Methods for Quantitatively Synthesizing Single-Subject Data. The Journal of Special Education, 44(1), 18-28.
_||_