محاسبه اندازه اثر در طرحهای تکآزمودنی با استفاده از روشهای ناهمپوش
محورهای موضوعی : تکتونواستراتیگرافیالناز موسی نژاد جدی 1 , شهرام واحدی 2 , محمد علی نظری 3 , تورج هاشمی نصرت آباد 4
1 - دانشکده روانشناسی، دانشگاه تبریز
2 - هیئت علمی دانشگاه تبریز
3 - دانشگاه تبریز
4 - دانشیار گروه روانشناسی دانشگاه تبریز
کلید واژه: اندازه اثر, روشهای ناهمپوش, طرح تک آزمودنی,
چکیده مقاله :
گزارش اندازه اثر در طرحهای تک آزمودنی در سالهای اخیر بسیار مورد توجه قرار گرفته است. روشهای متنوعی برای محاسبه اندازه اثر در طرحهای تک آزمودنی وجود دارد. پژوهش حاضر با هدف توصیف محاسبه اندازه اثر با استفاده از روشهای ناهمپوش که غیرپارامتریک و نابسته به توزیع هستند و همچنین بررسی نقاط قوت و ضعف هر یک از این روشها را انجام شد. در یک پژوهش تک آزمودنی از نوع AB دوازده جلسه درمان نوروفیدبک برای بررسی اثربخشی آن بر بهبود توجه بینایی- فضایی در یک کودک 8 ساله مبتلا به اختلال خواندن انجام شد. برای جمعآوری دادهها از آزمون پاسنر استفاده شد و برای تحلیل دادهها، اندازه اثر با استفاده از روشهای ناهمپوش PND، PAND، ECL، PEM، NAP و TAUnovlap محاسبه شد. نتایج پژوهش نشان داد که میزان اندازه اثر با استفاده از روشهای ناهمپوش بین 69 تا 84 درصد بهدست آمد که نشاندهنده اثربخشی مثبت نوروفیدبک در بهبود توجه بینایی- فضایی بود. پژوهش حاضر میتواند راهنمای پژوهشگران و درمانگران در نحوه استفاده از روشهای ناهمپوش برای محاسبه اندازه اثر در طرحهای تک آزمودنی و تصمیمگیری درباره اثرات درمان باشد.
Reporting of the effect size in single subject designs that there are different ways to calculate it, has received an increased attention in recent years. Objective: The aim of this paper is to describe the calculating of effect size using non-overlap methods that are non-parametric and distribution-free and also evaluate their strengths and limitations. In a AB single subject design, 12 sessions of neurofeedback training were done for an 8-years old child who had reading disorder to determine its effectiveness in improvement of the visuospatial attention. Data was gathered using Posner Test and analyzed using PND, PAND, ECL, PEM, NAP and TAUnovlap methods. The result showed that effect sizes were obtained between 69 to 84% indicating the effectiveness of treatment in improving of visuospatial attention. This paper could be a guideline for researchers and clinicians in using non-overlap methods for calculating the effect size and deciding about the effect of treatment.
Barlow, D.H., Nock, D.H., & Hersen, M. (2009). Single Case Experimental Designs: Strategies for Studying Behavior for Change. Boston: Pearson Education.
Burns, M.K. & Wagner, D. (2008). Determining an Effective Intervention within a Brief Experimental Analysis for Reading: A Meta-Analytic Review. School psychology review, 37(1), 126-136.
Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences. Hillsdale, NJ: Lawrence Erlbaum.
Campbell, J.M. (2004). Statistical Comparison of Four Effect Sizes for Single-Subject Designs. Behavior modification, 28(2), 234-246.
Ferguson, C.J. (2009). An Effect Size Primer: A Guide for Clinicians and Researchers. Professional Psychology: Research and Practice, 40(5), 532-538.
Horner, R.H., Carr, E.G., Halle, J., Mcgee, G., Odom, S. & Wolery, M. (2005). The use of single-subject research to identify evidence-based practice in special education. Exceptional Children, 71(2), 165-179.
Huberty, C.J. (2002). A history of effect size indices. Educational and Psychological Measurement, 62(2), 227-240.
Lenz, A.S. (2013). Calculating Effect Size in Single-Case Research: A Comparison of Nonoverlap Methods. Measurement and Evaluation in Counseling and Development, 46(1), 64–73.
MA, H. (2006). An Alternative Method for Quantitative Synthesis of Single-Subject Researches: Percentage of Data Points Exceeding the Median. Behavior modification, 30(5), 598-617.
Parker, R.I., & Hagan-Burke, S. (2007). Useful effect size interpretations for single case research. Behavior Therapy, 38, 95–105.
Parker, R.I., Hagan-Burke, S., & Vannest, K. (2007). Percentage of All Non-Overlapping Data (PAND): An Alternative to PND. Journal of special education, 40(4), 194–204.
Parker, R.I., & Vannest, K. (2009). An Improved Effect Size for Single-Case Research: Non-overlap of All Pairs. Behavior Therapy, 40, 357–367.
Parker, P.I., Vannest, K.J., & Brown, L. (2009). The improvement rate difference for single case research. Council for Exceptional Children, 75(2), 135-150.
Parker, P.I., Vannest, K.J., & Davis, J.L. (2011). Effect Size in Single-Case Research: A Review of Nine Nonoverlap Techniques. Behavior Modification, 35(4), 303–322.
Posner, M.I., & Cohen, Y. (1984). Components of visual orienting. In: Bouma, H., Bowhuis, D., editors. Attention and Performance. Hillsdale, NJ: Lawrence Erlbaum, 531–556.
Rakap, S., Snyder, P., & Pasia, C. (2014). Comparison of nonoverlap methods for identifying treatment effect in single-subject experimental research. Behavioral Disorders, 128-145.
Tillman, C.R., & Burns, M.K. (2009). Evaluating Educational Interventions Single-Case Design for Measuring Response to Intervention. New York & London: Guilford press.
Wendt, O. (2009). Calculating Effect Sizes for Single-Subject Experimental Designs: An Overview and Comparison. The Ninth Annual Campbell Collaboration Colloquium, available from: http://www.edst.purdue.edu/aac.
Wolery, M., Busick, M., Reichow, B., & Barton, E. (2010). Comparison of Overlap Methods for Quantitatively Synthesizing Single-Subject Data. The Journal of Special Education, 44(1), 18-28.
_||_