Identifying Factors Influencing the Success of Digital Formative Assessment in E-Learning Based on Meta-Synthesis
Subject Areas : Instructional Excellence of management
Mitra Omidvar
1
,
Seyed Mohammadbagher Jafari
2
,
Gholamreza Sharifirad
3
,
hosein karimian
4
1 - Ph.D Student in Educational Management, Faculty of Humanities, Islamic Azad University of Qom, Qom, Iran
2 - Associate Professor, Department of Industrial and Technological Management, Faculty of Management and Accounting, Farabi Colleges, University of Tehran, Qom, Iran.
3 - Professor, Department of Educational Management, Faculty of Humanities, Islamic Azad University of Qom, Qom, Iran.
4 - Associate Professor, Department of Educational Management, Faculty of Humanities, Islamic Azad University of Qom, Qom, Iran
Keywords: Digital Formative Assessment, Meta-Synthesis, Content Analysis, Learning Assessment, E-Learning.,
Abstract :
Introduction:Like other systems, the education system has its own fundamental principles and distinctive characteristics. One of its essential and inseparable elements is the assessment and evaluation of students' learning processes. Web-based instruction is a form of learning that has become increasingly prominent. One of the major challenges of e-learning systems is assessing learners’ levels of understanding (Alizadeh, 2016). The lack of proper assessment mechanisms in e-learning environments has led administrators to adopt temporary and costly interventions (Rahimi, 2017). This issue often stems from the failure to properly identify key evaluation components in online education. Accordingly, the present study aims to identify the factors contributing to the success of digital formative assessment in e-learning.
Materials and Methods:To address the research problem and develop a comprehensive model, a qualitative meta-synthesis approach was employed by systematically reviewing the literature. Meta-synthesis involves the search, appraisal, integration, and interpretation of quantitative or qualitative studies within a specific domain (Catalano, 2013). This study followed the seven-step method proposed by Sandelowski and Barroso (2006). The research population included articles published between 2000 and 2022, selected through a multi-stage screening process using reputable academic databases. Thematic analysis was used for data analysis, involving iterative comparison between raw data, coded summaries, and analytical themes.
To determine the weight and priority of the extracted and coded factors, Shannon entropy method (Shannon, 1948) was applied. This allowed the calculation of each indicator’s weight based on the degree of emphasis found across sources. The total weight of each category was calculated, and final importance coefficients were determined accordingly.
The validity of the meta-synthesis process was verified using the CASP checklist. To ensure reliability, five coded articles were randomly selected and reviewed by an expert. The inter-rater reliability was measured using the Cohen’s Kappa coefficient.
Given the research objective-to identify factors influencing the success of digital formative assessment in e-learning the study is categorized as applied research. Furthermore, since the data were naturally gathered without manipulation, the study falls under the category of descriptive (non-experimental) research.
Results and Findings: Using a qualitative meta-synthesis approach and content analysis of 76 selected articles, the study identified two main categories, five dimensions, and 80 specific indicators that contribute to the success of formative assessment in digital learning contexts. Findings revealed that previous studies lacked such a comprehensive, systematic, and integrative approach. Most prior research focused on limited aspects of formative assessment, whereas the current study examined its diverse dimensions in a dynamic and structured manner.The identified factors were classified into two main categories: human and technical. The human category included teacher- and student-related dimensions, while the technical category encompassed instructional content, digital infrastructure, and learning environment.In the quantitative phase, Shannon entropy was used to measure the distribution of emphasis across sources for each indicator. This enabled the prioritization of the 80 indicators based on their importance and influence.Specifically, 20 indicators were related to the teacher dimension, 21 to the student, 9 to instructional content, 11 to digital infrastructure, and 19 to the learning environment. Among all indicators, the most frequently cited one was "providing appropriate feedback by the teacher to the student", appearing 26 times across the reviewed studies. This indicator received the highest priority based on the entropy calculations.Additionally, when comparing the total frequencies of each dimension-teacher (80), student (84), digital infrastructure (82), environment (80), and instructional content (38)-it was evident that the student element received the most emphasis. However, there was a general balance among most dimensions, except for instructional content, which appeared with about half the frequency of others.
Discussion and Conclusion:Among the key success factors of digital formative assessment, the highest emphasis was on providing effective feedback-especially real-time and task-specific feedback-aligned with findings from Vogelzang (2016), Reynolds (2020), Reis (2011), Mayer (2016), Hattie (2007), Cowie (2013), and William (2016). The results suggest that designing and implementing supportive structures and processes in virtual learning environments, aligned with the identified priorities, can play a significant role in achieving educational goals.Another notable finding was the limited attention paid in previous studies to individual learner-related factors, such as low self-confidence and high stress (Taghavinia, 2017), reduced psychological pressure (Klimova ,2019), educational equity (Taghizadeh, 2018), and the avoidance of learner comparisons (McMillan, 2010). Based on the indicator rankings presented in this study, it is recommended that future e-learning models place greater emphasis on personal learner variables. This approach may enhance the quality and effectiveness of formative assessments in digital environments and create fertile ground for further research.
Abasi, H., & et al. (2023). Solutions to improve formative assessment in e-learning environments. New Approaches in Educational Administration. doi:10.30495/JEDU.2023.28524.5723
Aldon, G. e. (2015). Which support technology can give to mathematics formative assessment? The FaSMEd project in Italy and France. .Quaderni di Ricerca in Didattica (Mathematics), 25, 631-641.
Alizadeh, S. e. (2016). Analyzing the quality of classroom assessment of teachers; A mixed research study. Quarterly journal of research in school and virtual learning, 17(5), 63-84. [in perseian].
Baker, R. e. (2011). Detecting learning moment by moment. International Journal of Artificial Intelligence in Education, 21(1-2), 5-25.
Beesley, A. e. (2018). Enhancing formative assessment practice and encouraging middle school mathematics engagement and persistence. School Science & Mathematics, 118(1), 4-16.
Bennet, R. (2011). Formative assessment acritical review assessment in Education. principles,policy and practice, 18(1), 5-25.
Bicer, A. e. (2017). Integrated STEM assessment model. EURASIA Journal of Mathematics Science and Technology Education, 13(7), 3959-3968.
Black, P. W. (2004). Teachers developing assessment for learning: impact on student achievement. Assessment in Education, 11(1), 49-65.
Black, P. W. (2018). Classroom assessment and pedagogy. Assessment in Education: principles, policy, & practice, 25(6), 551-575.
Burkhardt, H. S. (2019). Formative assessment in mathematics. In H. B. Andrade (Ed.), Handbook of formative assessment in the disciplines (pp. 35-67). New York: Routledge.
Burns, M. e. (2010). The effects of technology-enhanced formative evaluation on student performance on state accountability math tests. Psychology in the Schools, 47(6), 582-591.
Catalano, A. (2013). Patterns of graduate students’information seeking behavior:a meta-synthesis of the literature. Journal of Documentation, 69(2), 243-274.
Cherner, T. S. (2017). Reconceptualizing TPACK to meet the needs of twenty-first-century education. The New Educator, 13(4), 329-349.
Clark, R. K. (2006). Why minimal guidance during instruction does not work: An analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching. Educational Psychologist, 41(2).
Cowie, B. e. (2013). Expanding notions of assessment for learning inside science and technology primary classrooms. Rotterdam, The Netherlands: Sense.
Crompton, H. e. (2019). Mobile learning and student cognition: A systematic review of PK-12 research using Bloom’s Taxonomy. British Journal of Educational Technology, 50(2), 684–701.
Decristan, J. e. (2015). Embedded formative assessment and classroom process quality: How do they interact in promoting science understanding? American Educational Research Journal, 52(6), 1133-1159.
Dolin J., B. P. (2018). Exploring relations between formative and summative assessment. Transforming assessment through an interplay between practice, research and policy. In E. R. Dolin J. (Ed.), Contributions from science education research (pp. 53-80). Cham , Switzerland: Springer.
Dolin, J. E. (Ed.). (2018). Transforming assessment through an interplay between practice, research and policy. Contributions from science education research. Switzerland: Springer.
Dukuzumuremyi, S. S. (2018). Interactions between pupils and their teachers in collaborative and technologyenhanced learning settings in the inclusive classroom. Teaching and Teacher Education, 76, 165-174.
Dunn, K. M. (2009). A critical review of research on formative assessment: The limited scientific evidence of the impact of formative assessment in education. Practical Assessment, Research, & Evaluation, 14(7), 1-11.
Duschl, R. (2019). Learning progressions: framing and designing coherent sequences for STEM Education. Disciplinary and Interdisciplinary Science Education Research, 1(4). Retrieved February 4, 2020.
European Commission. (2016). FaSMEd summary report. Retrieved February 4, 2020, from https://cordis.europa.eu/docs/results/612/612337/final1-finalfasmed- summary-report-final.
Faber, J. e. (2017). The effects of a digital formative assessment tool on mathematics achievement and student motivation: Results of a randomized experiment. Computers & Education, 106, 83-96.
Feldman, A., & Capobianco, B. M. (2008). Teacher learning of technology enhanced formative assessment. Journal of Science Education Technology, 17, 82-99.
Finlayson, O. M. (2017). Building teacher confidence in inquiry and assessment: Experiences from a Pan- European Collaboration. In A companion to research in teacher education (M. Peters, B. Cowie, I. Menter ed., pp. 825-838). Singapore: Springer.
Gail Morreim, J. (2016). How Digital Formative Assessment Increases student Achievment and Motivation. Saint Paul.Minnesota: Hamline University.
Geer, R. e. (2017). Emerging pedagogies for the use of iPads in schools. British Journal of Educational Technology, 48(2), 490-498.
Griffin, P. (2015). Assessment and teaching of 21st century skills: Methods and approaches. (E. Care, Ed.) Dordrecht: Springer.
Griffin, P. M. (2012). Assessment and teaching of 21st century skills. (E. Care, Ed.) Dordrecht: Springer.
Harris, J. e. (2017). TPCK/TPACK research and development: Past, present, and future directions. Australasian Journal of Educational Technology, 33(3), i-viii.
Haßler, B. e. (2016). Tablet use in schools: A critical review of the evidence for learning outcomes. Journal of Computer Assisted Learning, 32(2), 139-156.
Hattie, J. T. (2007). The power of feedback. Review of Educational Research, 77(1), 81-112.
Hayward, L. (2015). Assessment is learning: the preposition vanishes. Assessment in Education: principles, policy & practice, 22(1), 27-43.
Hickey, D. e. (n.d.). Assessment as learning: enhancing discourse understanding, and achievement in innovative science curricula . Journal of Research in Science Teaching, 49(10), 1240-1270.
Hmelo-Silver, C. (2004). Problem-based learning: What and how do students learn? Educational Psychology Review, 16(3), 235-266.
Hondrich, A. e. (2018). Formative assessment and intrinsic motivation: The mediating role of perceived competence. eitschrift für Erziehungswissenschaft, 21, 717-734.
Hooker, T. (2017). Transforming teachers’ formative assessment practices through ePortfolios. eaching and Teacher Education, 67, 440-453.
Jennings, L. (2010). Inquiry-based learning. CA, Encyclopedia of Educational Reform and Dissent: SAGE.
Jönsson, A. (2020). Definitions of formative assessment need to make a distinction between a psychometric understanding of assessment and “evaluate judgements.”. Frontiers In Education, 5(2), 1-4.
Khanifar, H. e. (2015). Designing an entrepreneurial process model in Iran's food industry. Entrepreneurship Development, 9th, , 219-237. [in perseian].
Khodadahosseini, S. (2013). Designing an entrepreneurial branding process model in small and medium businesses in the food industry. Brand Management Quarterly, 1, 13-45 [in perseian].
Kimbell, R. (2012). Evolving project e-scape for national assessment. International Journal of Technology and Design Education, 22(2), 135-155.
Kimbell, R. a. (2007). E-scape portfolio assessment: Phase 2 report. Goldsmiths. University of London.
Kingston, N. N. (2011). Formative assessment: A meta-analysis and call for research. Educational Measurement: Issues and Practice, 30(4), 28-37.
Kippers, W. e. (2018). Teachers’ views on the use of assessment for learning and data-based decision making in classroom practice. Teaching and Teacher Education, 75, 199-213.
Kirschner, P. D. (2017). The myths of the digital natives and the multitasker. Teaching and Teacher Education, 67, 135-142.
Knowles, T. K. (2016). A conceptual framework for integrated STEM education. International Journal of STEM Education, 3(11), 1-11.
Koehler, M. J. (2009). What is technological pedagogical content knowledge? Contemporary Issues in Technology and Teacher Education, 9(1), 60-70.
Laal, M. (2013). Collaborative learning; elements. Social and Behavioral Sciences, 83, 814-818.
Lai, C. (2019). Trends of mobile learning: A review of the top 100 highly cited papers. British Journal of Educational Technology.
Larson, K. T. (2008). Continuous Feedback Pedagogical Patterns. In PLoP’08 Proceedings of the 15th Conference on Pattern Languages of Programs. New York: ACM.
Lashkarblouki, e. a. (2011). Designing a sustainable strategy process model using a hybrid approach. Strategic Management Thought, 6, 121-151. [in perseian].
Lee, H. F. (2012). Factors that affect science and mathematics teachers’ initial implementation of technology-enhanced formative assessment using a classroom response system. Journal of Science Education Technology, 21, 523-539.
Looney, J. (2019). Digital formative assessment: A review of the literature.
Lysaght, Z. O. (2017). Scaling up, writ small: using an assessment for learning audit instrument to stimulate site-based professional development, one school at a time. Assessment in Education: Principles, Policy & Practice, 24(2), 271-289.
Maier, W. W. (2016). Effects of a computer-assisted formative assessment intervention based on multiple-tier diagnostic items and different feedback types. Computers & Education, 95, 85-98.
Marjan Faber, J. (2020). Effect of digital formative assessment tools on teaching quality and student achievement. PhD Thesis, University of Twente.
Martin, M. e. (2017). TIMSS 2019 Assessment Design. In I. M. Martin (Ed.), TIMSS 2019 Assessment Frameworks (pp. 79-91).
McMillan, J; Cauley, K. (2010). Formative assessment techniques to support student motivation and achievement. Educational strategies, 83(1), 1-6.
Mishra, P. K. (2006). Technological pedagogical content knowledge: A framework for integrating technology in teacher knowledge. Teachers College Record, 108(6), 1017-1054.
Molenaar, I. e. (2019). What can moment-by-moment learning curves tell about students’ selfregulated learning? Learning and Instruction. Retrieved February 4, 2020.
Ng, W. (2012). Empowering scientific literacy through digital literacy and multiliteracies. In Hauppauge. NY: Nova Science Publishers.
Nicol, D., & Macfarlane, D. (2006). Formative assessment and self-regulated learning; A model and seven principles of good feedback practice. Studies in Higher Education, 31(2), 199–218.
Nikou, S. c. (2018). Mobile-based assessment: A literature review of publications in major refered journals from 2009 to 2018. Computers & Education, 125, 101-119.
Nikou, S. E. (2019). Factors that influence behavioral intention to use mobile-based assessment: A STEM teacher’s perspective. British Journal of Educational Technology, 50(2), 587-600.
O’Leary, M. e. (2018). The state of the art in digital technology based assessment. European Journal of Education, 53(2), 160-175.
Qaltash, A. e. (2014). Pathology of the descriptive evaluation model in order to provide a suitable model in the elementary school. Quarterly Journal of Research in Educational and Virtual Learning, 10(3), 7-16. [in perseian].
Rahimi, S. (2017). Review of computer-based assessment for learning in elementary and secondary education. Journal of Computer Assisted Learning, 33, 1-19.
Reis, S. (2011). The Effects Differentiated Instruction and Enrichment Pedagogy on Reading Achievement in Five Elementary Schools. American Educational Research Journal, 48(2), 462-501.
Reynolds, Katherine;et al. (2020). Digital Formative Assessment of Transversal Skills STEM. Dublin City University: ISBN: 978-1-911669-05-0.
Sandelowski, M., & Barroso, J. (2006). Handbook for Synthesizing Qualitative Research: Springer Publishing Company.
Shannon, C. (1948). A Mathematical Theory of Communication. The Bell System 27(4): 623-656.
Shavelson, R. e. (2008). On the impact of curriculum-embedded formative assessment on learning: A collaboration between curriculum and assessment developer. Applied Measurement in Education, 21(14), 295-314.
Shute, V. L. (2016). Advances in the science of assessment. Educational Assessment, 21(1), 34-59.
Spector, J.M., et.al. (2016). Technology enhanced formative assessment for 21st century learning. Educational Technology and Society, 19(3), 58-71.
Stobart, G. (2006). The validity of formative assessment (Assessment and Learning ed.). (J. Garder, Ed.) CA: SAGE Publications Ltd.
Szendey, olivia;et al. (2020). Virtual Learning Environments and Digital tools impementing Formative Assessment and Transversal Slills in STEM. Dublin City University: ISBN: 978-1-911669-14-2.
Taghi zadeh, A., & ed al. (2018). Identifying Capabilities of Formative Assessment in Virtual Learning Environments. Quarterly Journal of Research in School and Virtual Learning, 1(6), 43-62. (In Persian).
Van De Ven, A. (1992). Suggestions for Studying Strategy Process: A Research Note. Strategic Management Journal, 13(S1), 169-188.
Vogelzang, J. A. (2017). Classroom action research on formative assessment in a context-based chemistry course. ducational Action Research, 25(1), 155-166.
Wiliam, D. (2016). The secret of effective feedback. Educational Leadership, 73(7), 10-15.
Wiliam, D. (2019). Why formative assessment is always both domain-general and domain-specific and what matters is the balance between the two. In R. B. H. Andrade, Handbook of formative assessment in the disciplines (pp. 243-264).
Wiliam, D; Thompson.M;. (2007). Integrating assessment with learning: What will it take to make it work? New York: In C.A. Dwyer(Ed.), The future of assessment: Shaping teaching and learning.
Zenisky, A. S. (2006). Innovative item formats in computer-based testing: In pursuit of improved construct representation. In S. Downing, & T. Haladyna (Ed.), Handbook of test development (pp. 329-348). New York, NY: Routledge.
Identifying Factors Influencing the Success
of Digital Formative Assessment in E-Learning Based on Meta-Synthesis Method1
Mitra Omidvar1, Seyyed Mohammad Bagher Jafari2*
, Gholamreza Sharifi Rad3
, Hossein Karimian4
1. Ph.D Student in Educational Management, Faculty of Humanities, Islamic Azad University of Qom, Qom, Iran. Omidvar.mitra@gmail.com
2. Associate Professor, Department of Industrial and Technological Management, Faculty of Management and Accounting, Farabi Colleges, University of Tehran, Qom, Iran. sm.jafari@ut.ac.ir
3. Professor, Department of Educational Management, Faculty of Humanities, Islamic Azad University of Qom, Qom, Iran. dr.sharifirad@gmail.com
4. Associate Professor, Department of Educational Management, Faculty of Humanities, Islamic Azad University of Qom, Qom, Iran. hosein.karimian46@yahoo.com
Abstract Introduction:Like other systems, the education system has its own fundamental principles and distinctive characteristics. One of its essential and inseparable elements is the assessment and evaluation of students' learning processes. Web-based instruction is a form of learning that has become increasingly prominent. One of the major challenges of e-learning systems is assessing learners’ levels of understanding (Alizadeh, 2016). The lack of proper assessment mechanisms in e-learning environments has led administrators to adopt temporary and costly interventions (Rahimi, 2017). This issue often stems from the failure to properly identify key evaluation components in online education. Accordingly, the present study aims to identify the factors contributing to the success of digital formative assessment in e-learning. Materials and Methods:To address the research problem and develop a comprehensive model, a qualitative meta-synthesis approach was employed by systematically reviewing the literature. Meta-synthesis involves the search, appraisal, integration, and interpretation of quantitative or qualitative studies within a specific domain (Catalano, 2013). This study followed the seven-step method proposed by Sandelowski and Barroso (2006). The research population included articles published between 2000 and 2022, selected through a multi-stage screening process using reputable academic databases. Thematic analysis was used for data analysis, involving iterative comparison between raw data, coded summaries, and analytical themes. To determine the weight and priority of the extracted and coded factors, Shannon entropy method (Shannon, 1948) was applied. This allowed the calculation of each indicator’s weight based on the degree of emphasis found across sources. The total weight of each category was calculated, and final importance coefficients were determined accordingly. The validity of the meta-synthesis process was verified using the CASP checklist. To ensure reliability, five coded articles were randomly selected and reviewed by an expert. The inter-rater reliability was measured using the Cohen’s Kappa coefficient. Given the research objective-to identify factors influencing the success of digital formative assessment in e-learning the study is categorized as applied research. Furthermore, since the data were naturally gathered without manipulation, the study falls under the category of descriptive (non-experimental) research. Results and Findings: Using a qualitative meta-synthesis approach and content analysis of 76 selected articles, the study identified two main categories, five dimensions, and 80 specific indicators that contribute to the success of formative assessment in digital learning contexts. Findings revealed that previous studies lacked such a comprehensive, systematic, and integrative approach. Most prior research focused on limited aspects of formative assessment, whereas the current study examined its diverse dimensions in a dynamic and structured manner.The identified factors were classified into two main categories: human and technical. The human category included teacher- and student-related dimensions, while the technical category encompassed instructional content, digital infrastructure, and learning environment.In the quantitative phase, Shannon entropy was used to measure the distribution of emphasis across sources for each indicator. This enabled the prioritization of the 80 indicators based on their importance and influence.Specifically, 20 indicators were related to the teacher dimension, 21 to the student, 9 to instructional content, 11 to digital infrastructure, and 19 to the learning environment. Among all indicators, the most frequently cited one was "providing appropriate feedback by the teacher to the student", appearing 26 times across the reviewed studies. This indicator received the highest priority based on the entropy calculations.Additionally, when comparing the total frequencies of each dimension-teacher (80), student (84), digital infrastructure (82), environment (80), and instructional content (38)-it was evident that the student element received the most emphasis. However, there was a general balance among most dimensions, except for instructional content, which appeared with about half the frequency of others. Discussion and Conclusion:Among the key success factors of digital formative assessment, the highest emphasis was on providing effective feedback-especially real-time and task-specific feedback-aligned with findings from Vogelzang (2016), Reynolds (2020), Reis (2011), Mayer (2016), Hattie (2007), Cowie (2013), and William (2016). The results suggest that designing and implementing supportive structures and processes in virtual learning environments, aligned with the identified priorities, can play a significant role in achieving educational goals.Another notable finding was the limited attention paid in previous studies to individual learner-related factors, such as low self-confidence and high stress (Taghavinia, 2017), reduced psychological pressure (Klimova ,2019), educational equity (Taghizadeh, 2018), and the avoidance of learner comparisons (McMillan, 2010). Based on the indicator rankings presented in this study, it is recommended that future e-learning models place greater emphasis on personal learner variables. This approach may enhance the quality and effectiveness of formative assessments in digital environments and create fertile ground for further research.
Keywords: Digital Formative Assessment, Meta-Synthesis, Content Analysis, Learning Assessment, E-Learning. |
[1] Received: 2025/02/23; Accepted: 2025/05/10; Published online: 2025/09/01
Pablisher: Qom Islamic Azad University Article type: Research Article © The Author(s).
Doi: 10.71522/jiem.2025.2191206295
شناسایی عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال در آموزش و یادگیری الکترونیکی مبتنی بر روش فراتركيب1
میترا امیدوار1، سید محمدباقر جعفری*2، غلامرضا شریفی راد3، حسین کریمیان4
1 دانشجوی دکتری مدیریت آموزشی، دانشکدۀ علوم انسانی، دانشگاه آزاد قم، قم، ایران Omidvar.mitra@gmail.com
2 دانشیار، گروه مدیریت صنعتی و فناوری، دانشکدۀ مدیریت و حسابداری، دانشکدگان فارابی دانشگاه تهران، قم، ایران sm.jafari@ut.ac.ir
3 استاد، گروه مدیریت آموزشی، دانشکدۀ علوم انسانی، دانشگاه آزاد قم، قم، ایران dr.sharifirad@gmail.com
4 دانشیار، گروه مدیریت آموزشی، دانشکدۀ علوم انسانی، دانشگاه آزاد قم، قم، ایرانhosein.karimian46@yahoo.com
چکیده مقدمه: نظام تعلیم و تربیت همانند سایر نظامها دارای اصول و ویژگیهای خاص خود است. یکی از ویژگیهای اساسی و لاینفک آن سنجش و ارزیابی فرآیند آموزش و یادگیری دانش آموزان است. آموزش مبتنی بر وب، رویکردی از انواع یادگیری است. يکی از مهمترين چالشهای سيستمهای يادگيریالکترونيکی، ارزیابی سطح یادگیری فراگیران است. فقدان سازوكارهای صحيح سنجش و ارزيابی تحصیلی (علیزاده،2016)، در آموزش و یادگیری الکترونیکی (رحیمی،2017)، مدیران را به اجرای راهکارها و برنامههای زودگذر با هزينۀ اضافی مواجه كرده است. این امر در نتیجه عدم شناسایی صحیح مولفههای ارزیابی در آموزش و یادگیری الکترونیکی است. از اینرو، هدف پژوهش حاضر، شناسایی عوامل مؤثر بر موفقیت ارزیابی تکوینی دیجیتال در یادگیری الکترونیکی بوده است. مواد و روشها: برای حل مسـئلۀ پـژوهش و به منظور تبيين يك مدل جامع، با مرور سيستماتيك ادبيات از روش کیفی فراتركيب اسـتفاده شـد. فراتركيب فرايند جست وجو، ارزيابی، تركيب و تفسير مطالعات كمی يا كيفی در يك حوزۀ خـاص است (کاتالانو،2013). گامهای دنبالشده در اين پـژوهش، براسـاس روش هفـتمرحلـهای سندلوسکی و بارسو (2006) بود. جامعه و نمونه، مقالات منتشرشده در بازۀ زمانی سالهای 2000 تا 2022 و روش نمونهگیری، پایش چندمرحلهای و ابزار گردآوری، پایگاه دادهی سایتها و نشریات معتبر بود و به جهت تجزیه و تحلیل از روش تم استفاده شد. این تحلیل شامل یک رفت و برگشت مستمر بین مجموعه دادهها و خلاصههای کدگذاری شده و تحلیل دادهها بود. به منظور تعيين ضريب اهميت و اولويت هر يك از مفاهيم كشف شده و کدگذاری شده از روش كمی آنتروپـی شانون (شانون،1948) استفاده شد. بنابراین، با تحلیل مقالات انتخابشده و بررسی میزان پشتیبانی هر شاخص توسط منابع مختلف، وزن شاخصها محاسبه شد. سپس مجموع وزن شاخصها در هر بُعد بهعنوان وزن کل آن بُعد در نظر گرفته شد و در نهایت، ضریب اهمیت نهایی هر شاخص محاسبه گردید. برای بررسی روایی روش فراترکیب از شاخص CASP استفاده شد و برای بررسی پایایی پنج مقاله که محققان کدگذاری کرده بودند به صورت تصادفی انتخاب و در اختیار یکی از خبرگان برای ارزیابی قرار داده شد سپس نتایج حاصل از کدگذاری دو محقق در جدول جمعآوری و با شاخص کاپا سنجش شد.از آنجا که، تحقيق حاضر با هدف شناسایی عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال در یادگیری الکترونیکی انجام شده است لذا براساس هدف، کاربردی است. از سوی ديگر، از آنجا كه دادههـا كـاملاً طبيعـی و بـدون دسـتكاری گـردآوری شدهاند، در زمرۀ تحقيقات توصيفی (غيرآزمايشي) بهشمار میآید. نتایج و یافتهها: در بخش کیفی و با رویکرد فراترکیب بر اساس تحلیل محتوای 76 مقاله منتخب نهایی، در مجموع دو مقولۀ اصلی، پنج بُعد و 80 شاخص به عنوان عوامل مؤثر بر موفقیت ارزیابی تکوینی در راستای استراتژیهای دیجیتال شناسایی و کدگذاری شدند. یافتههای این مرحله نشان دادند که در مطالعات پیشین، پژوهشی با رویکردی به این میزان جامع، نظاممند و تلفیقی انجام نگرفته است. اغلب پژوهشهای پیشین تنها به جنبههای محدود یا خاصی از ارزیابی تکوینی پرداختهاند، در حالیکه در این مطالعه، ابعاد مختلف آن به شکل پویا و ساختاریافته بررسی شدند. از یافتههای بهدستآمده مشخص گردید که عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال به طورکلی شامل دو مقولۀ اصلی انسانی و فنی است. در مقولۀ انسانی ابعاد معلم، دانشآموز و در مقولۀ فنی، ابعاد محتوای آموزشی، زیرساخت تجهیزات دیجیتال و محیط قرار گرفتند.در بخش کمّی و تعیین اولویتها، با استفاده از روش آنتروپی شانون، میزان پراکندگی دادهها و تأکید منابع مختلف بر هر شاخص اندازهگیری شد و بر اساس آن، شاخصها اولویتبندی شدند. شاخصها بر اساس درجۀ اهمیت و میزان تأثیرگذاری آنها در موفقیت ارزیابی تکوینی دیجیتال مرتب شدند بهطوری که شاخصهای با بالاترین اولویت در صدر جدول قرار گرفتند.تعداد شاخصهای موثر بر موفقیت ارزیابی تکوینی دیجیتال در بعد معلم 20 مورد و در بعد دانشآموز تعداد 21 شاخص یافت شد. در مقولۀ فنی، بعد محتوای آموزشی 9 شاخص موثر و در بعد زیرساخت ابزار دیجیتال 11 شاخص و نهایتاً در بعد محیط 19 شاخص موثر به دست آمد. بر اساس اسناد و منابع موجود، ازمجموع 80 شاخص ذکر شده، بیشترین فراوانی به "ارائۀ بازخورد مناسب از طرف معلم به دانشآموز" اختصاص یافت. این مقدار برابر با 26 تکرار بود که با محاسبات آنتروپی شانون رتبۀ اول را در عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال از آن خود کرد.از سوی دیگر با مقایسه مجموع فراوانی هریک از ابعاد با یکدیگر شامل "معلم، دانش آموز، محتوای آموزشی، زیرساخت ابزار دیجیتال و محیط" نتیجۀ دیگری حاصل گشت. این نتیجه حاکی از آن بود که بیشترین تمرکز بر روی عنصر "دانشآموز" بود. البته توازن مناسبی بین عناصر "معلم با فراوانی 80، دانشآموز با فراوانی 84، زیرساخت ابزار دیجیتال با فراوانی 82 و محیط با فراوانی 80" برقرار بود. در این میان عنصر "محتوای آموزشی" با فراوانی 38 تقریبا به میزان نصف سایر عناصر تاثیر خود را نشان داد. بحث و نتیجهگیری: در میان عوامل مؤثر بر موفقیت ارزیابی تکوینی در چارچوب بهرهگیری از ابزارهای دیجیتال، بیشترین تأکید بر ارائۀ بازخورد مؤثر (ویلسون،2016)؛ (رینولز،2020)؛ (ریز،2011)؛ (مایر،2016)؛ (هتی،2007)؛ (کاوی،2013)؛ (ویلیام،2016)، بهویژه در رابطه با فعالیتها، تلاشهای یادگیرندگان و بازخورد آنی و برخط بوده است. این یافتهها نشان دادند که طراحی و استقرار ساختارها و فرآیندهایی که از محیطهای یادگیری مجازی پشتیبانی میکنند، در صورتی که با اولویتهای شناساییشده در این پژوهش همراستا باشند، میتوانند نقش مهمی در تحقق اهداف یادگیری ایفا کنند.از دیگر نتایج قابل توجه حاصل از تحلیل کمی در این پژوهش، کمتوجهی به عوامل فردی مؤثر بر یادگیری در مطالعات پیشین است؛ مانند شاخص اعتماد به نفس پایین و استرس بالا در پژوهش (تقوینیا،2017)؛ کاهش فشار روانی دانشآموز (کلیمووا،2019)؛ عدالت آموزشی (تقیزاده،1397) و عدم مقایسه بین دانشآموزان (مکمیلان،2010). با توجه به رتبهبندی شاخصهای مؤثر بر ارزیابی تکوینی دیجیتال که در این تحقیق ارائه شد، پیشنهاد میشود در طراحی مدلهای یادگیری الکترونیکی، توجه بیشتری به مؤلفههای فردی یادگیرندگان معطوف گردد. این رویکرد میتواند زمینهساز ارتقاء کیفیت و اثربخشی ارزیابیهای تکوینی در بستر آموزش الکترونیکی شده و بستر مناسبی را برای انجام پژوهشهای آینده فراهم آورد. واژههای کلیدی: ارزیابی تکوینی دیجیتال، فراترکیب، تحلیل محتوا، سنجش یادگیری، یادگیری الکترونیکی. |
بیتردید در دنیای پیشرفتۀ امروز، موفقیت تحصیلی یکی از شاخصهای اصلی موفقیت فردی به شمار میرود؛ موفقیتی که بدون آن، دستیابی به توسعه و پیشرفت پایدار برای هیچ کشوری امکانپذیر نخواهد بود. يادگيری الکترونيکی، يک تحول بینظير در آموزش است، که توانسته فرآيند یادگیری را به طور موثر و ساده گسترش دهد. در سالهای اخیر، پژوهشهای متعددی نشان دادهاند (Abasi, 2023)؛ (Alizadeh, 2016)؛که تدریس در بستر وب و به شیوۀ الکترونیکی، بهویژه با بهرهگیری از شبکههای اجتماعی، در مقایسه با روشهای سنتی، تأثیر چشمگیری بر بهبود عملکرد تحصیلی فراگیران داشته است. استفاده از این بسترها به معلمان کمک کرده است تا در فرآیند توضیح، نقد و تحلیل مطالب و ایجاد ارتباط بین مفاهیم مختلف آموزشی، مؤثرتر عمل کنند. در نتیجه، فرآیند یادگیری برای دانشآموزان به شکل مؤثرتری پیش رفته و از نظر جذابیت، پویایی و غنا ارتقا یافته است که این امر به بهبود سطح یادگیری آنان انجامیده است. استفاده از آموزشهای مبتنی بر وب و شبکههای مجازی بهعنوان یکی از رویکردهای نوین آموزشی، زمینهساز افزایش تعامل میان یادگیرنده و آموزشدهنده شده است. این شیوۀ آموزشی دسترسی گستردهتری به منابع آموزشی فراهم میکند و از رسانههای متنوع و جذاب برای افزایش انگیزه و ارائه روشهای نوآورانه یادگیری بهره میبرد. با این حال، یکی از چالشهای مهم در سیستمهای یادگیری الکترونیکی، ارزیابی دقیق میزان یادگیری فراگیران است. در محیطهای آموزش مجازی، معلم نظارت مستقیم و کافی بر روند یادگیری دانشآموزان ندارد و از سوی دیگر، احتمال بروز تقلب در آزمونهای آنلاین نیز بیشتر است. یکی از دلایل اصلی این مسئله، فقدان شناسایی دقیق و علمی مؤلفههای ارزیابی مناسب برای محیطهای آموزش الکترونیکی است. بر این اساس، پژوهش حاضر بر اهمیت بهکارگیری نوعی خاص از ارزیابی با عنوان "ارزیابی تکوینی" بهعنوان راهکاری مؤثر برای ارتقای فرآیند آموزش و یادگیری (Duschl, 2019) تأکید دارد. در همین راستا، نوع خاصی از این ارزیابی با عنوان "ارزیابی تکوینی دیجیتال"مورد توجه قرار گرفته است. ارزیابی تکوینی دیجیتال میتواند به سیستمهای مدیریت آموزش الکترونیکی کمک کند تا با اتخاذ راهبردهای مناسب، فرآیند یادگیری را به طور مستمر پایش و اصلاح کرده (Jönsson, 2020) و نهایتاً تحقق هدف اصلی آموزش، یعنی یادگیری مؤثر، را امکانپذیر سازد. با وجود معرفی مدلها و چارچوبهای مختلف در حوزۀ یادگیری الکترونیکی، تاکنون مدلی جامع که تمامی ابعاد مختلف ارزیابی تکوینی دیجیتال را به صورت یکپارچه مدنظر قرار دهد، ارائه نشده است. تمرکز اصلی این مطالعه بر طراحی و اجرای مؤثر ارزیابیهای تکوینی با استفاده از فناوریهای دیجیتال است. لازم به ذکر است که در این پژوهش، جنبههای فنی همچون معرفی نرمافزارها، سیستمعاملها یا بسترهای فناوری مورد استفاده، مدنظر نبوده و تمرکز صرفاً بر مباحث نظری، مفهومی و اجرایی ارزیابی دیجیتال است از اینرو، هدف پژوهش حاضر، شناسایی عوامل مؤثر بر موفقیت ارزیابی تکوینی دیجیتال در یادگیری الکترونیکی است.
2. مبانی نظری تحقیق
نظام تعلیم و تربیت، همانند دیگر نظامها، از اصول و ویژگیهای خاص خود برخوردار است. یکی از ارکان بنیادی و جداییناپذیر این نظام، سنجش و ارزیابی فرآیند آموزش و یادگیری دانشآموزان است. از طریق تحلیل نتایج این ارزیابیها میتوان میزان تحقق اهداف کلان آموزشی را مورد بررسی و سنجش قرار داد. برای درک بهتر این موضوع و به کارگیری واژههای مناسب، در ادامه مروری بر مفاهیم و اصطلاحات مهم رویکردهای ارزیابی تحصیلی انجام گرفته است تا تفاوت بين این عبارات شناسایی شود.
اندازهگیری2: به فرآیند سنجش با هدف تعیین درجۀ بهرهمندی فرد از یک ویژگی خاص انجام میگیرد (Baker, 2011) و عددی به یک خصیصه یا ویژگی اختصاص مییابد، بهطوریکه که این عدد بازتابدهندۀ شدت یا میزان آن ویژگی در فرد است (Nikou S. E., 2019). درواقع، اندازهگیری به معنای تبدیل کیفیت به کمیت است.
آزمون3: ابزاری نظاممند برای اجرای فرآیند اندازهگیری است (Feldman & Capobianco, 2008). از آنجا که رفتارهای انسانی گسترده و متنوعاند، آزمونها معمولاً نمونهای از رفتار را مورد بررسی قرار میدهند تا استنباطهایی درباره کل رفتار صورت گیرد.
ارزشيابی4: فرآیندی نظاممند برای جمعآوری، تحلیل و تفسیر اطلاعات است که بر اساس شاخصها و استانداردهای از پیش تعیینشده، بهمنظور بررسی کیفیت عملکرد فراگیران، معلمان، برنامههای درسی یا سیاستهای آموزشی انجام میشود (Reis, 2011). کیفیت در این زمینه به دانش، مهارتها و توانمندیهایی اطلاق میشود که انتظار میرود فراگیران پس از آموزش کسب کرده باشند (Nikou S. E., 2019).
ارزیابی5 یا سنجش: مفهومی گستردهتر از آزمون است و به گردآوری اطلاعات برای تصمیمگیری آموزشی درباره فراگیران، برنامهها و سیاستها اشاره دارد (Aldon, 2015). ارزیابی ضمن پیشبینی عملکرد، به شناسایی نقاط قوت و ضعف فراگیران کمک کرده و هدف آن، حمایت از یادگیرنده برای بهبود عملکرد و ارتقای توانمندیهاست. در رویکرد سنتی، تمرکز بر ارزشیابی است که ابزار اصلی آن آزمون است؛ در حالی که در رویکرد مدرن، سنجش انجام میشود که علاوهبر آزمون از ابزارهای جایگزین نیز بهره میگیرد.
ارزیابیتکوینی6: نوعی ارزیابی فرآیندمحور، مستمر و پویا است که در طول فرآیند یاددهی-یادگیری بهکار گرفته میشود و هدف اصلی آن اصلاح و بهبود فرآیند یادگیری است (Abasi, 2023). در این شیوه، معلم به عنوان ناظر و هدایتگر، فعالیتهای دانشآموز را در تمام ابعاد شناختی، عاطفی و روانی-حرکتی، از ابتدا تا انتهای آموزش بررسی میکند. اطلاعات مورد نیاز از طریق ابزارهایی همچون چکلیستهای رفتاری، پوشههای کاری، آزمونهای عملکردی، پرسشنامههای نگرشی و آزمونهای دانشی جمعآوری میشود. ارزیابی تکوینی باید در مرکز فعالیتهای کلاسی قرار گیرد؛ بهگونهای که دانشآموزان آن را بخشی از فرآیند یادگیری بدانند. آنها باید نهتنها بدانند چه چیزی میآموزند، بلکه درک کنند چگونه یاد میگیرند. در این رویکرد، بسیاری از فعالیتهای کلاسی، از جمله سؤالات دانشآموزان، تکالیف انجامشده و مشارکتهای کلاسی، بهعنوان فرصتهای ارزیابی تلقی میشوند. معلم از طریق تحلیل مشاهدات خود، محتوای تدریس و نحوۀ ادامۀ آموزش را تنظیم میکند.
ارزیابیتکوینیدیجیتال7: تمام خصوصیات ارزیابی تکوینی کلاسیک را داراست و از سوی دیگراز فناوریهای نوین در محیطهای آموزش الکترونیکی و ابزارهای ارزیابی برخط بهره میبرد، فرآیند سنجش، تحلیل نتایج و ارائۀ بازخورد با سرعت، دقت و کارایی بیشتری صورت میگیرد (Rahimi, 2017). هدف اصلی این نوع ارزیابی، تأمین اطلاعات مورد نیاز برای قضاوت دربارۀ کیفیت عملکرد تحصیلی فراگیر است. بنابراین، تصمیمگیری معلم درخصوص میزان پیشرفت فراگیران، به اطلاعات گردآوریشده (Reynolds, Katherine;et al, 2020) در این فرآیند وابسته است. این قضاوت نشان میدهد که کدام بخش از آموزش اثربخش بوده و در چه بخشهایی فراگیران نیازمند حمایت و آموزش بیشتری هستند. هرچه اطلاعات حاصل از ارزیابی دقیقتر و جامعتر باشد، قضاوت آموزشی نیز معتبرتر خواهد بود. از اینرو، در چارچوب ارزیابی تکوینی دیجیتال، نقش فناوری در بهبود دقت، سرعت و کیفیت بازخورد بهعنوان عاملی کلیدی در ارتقاء یادگیری دانشآموزان در نظر گرفته میشود. در جدول 1 رویکردهای مختلف ارزیابی یادگیری همراه با منابع پژوهشی مرتبط درج شده است.
ﺟﺪول 1. انواع روﻳﻜﺮدﻫﺎی ارزﻳﺎﺑﻲ و سنجش یادگیری
رویکرد ارزیابی | نمونه ای از پژوهش | ابعاد کلیدی | مزایا | محدودیتها |
ارزیابی تراکمی | (مک میلان،2010) | نمرهدهی پایانی، امتحانات جامع، قضاوت نهایی | استانداردسازی، ارزیابی در پایان فرآیند آموزش | عدم توجه به فرآیند یادگیری، تمرکز بر نتایج نهایی |
ارزیابی تکوینی | (هادسمان و همکاران،2013)؛ (عباسی و همکاران،1402) | بازخورد مستمر، اصلاح یادگیری، مشارکت فعال معلم و دانشآموز | بهبود مستمر، شناسایی ضعفها، ارتقای یادگیری در حین آموزش | زمانبر بودن، نیاز به مهارت معلم در تحلیل بازخورد و هدایت فرآیند |
ارزیابی تکوینی دیجیتال | (رحیمی،2017) | فناوریمحور، آزمونهای برخط، بازخورد فوری، ابزارهای تحلیل داده | تسریع ارزیابی، تعامل بیشتر، مستندسازی بهتر، تحلیل عملکرد فراگیران | چالش در احراز هویت، احتمال تقلب، نیاز به زیرساخت فنی و سواد دیجیتال |
ارزیابی برای یادگیری | (وانگ و هوانگ،2006) | تاکید بر یادگیری در فرآیند ارزیابی، بازخورد جهتدار، انگیزش درونی یادگیرنده | تمرکز بر ارتقای یادگیرنده، افزایش خودتنظیمی و آگاهی فراگیر | نیاز به بازطراحی نقش معلم، تغییر نگرش سنتی به نقش آزمون |
به عنوان نمونه، در یکی از جدیدترین پژوهشهای انجامشده در این زمینه، عباسی و همکاران (1402) ده راهحل کلیدی برای بهبود ارزشیابی تکوینی در نظام یادگیری الکترونیکی شناسایی و پیشنهاد کردهاند. این راهحلها به منظور ارتقاء کیفیت ارزیابی در محیطهای دیجیتال طراحی شدهاند و شامل موارد زیر میباشند:
1. بکارگیری متنوع ابزارهای ارزشیابی تکوینی
2. ارائه بازخورد مناسب، بهموقع و سازنده
3. تأکید بر احراز هویت فراگیران در فرآیند ارزشیابی
4. استفاده اثربخش از ارائههای کلاسی در بستر دیجیتال
5. مدیریت منظم تکالیف و فعالیتهای آموزشی
6. اجرای مؤثر آزمونهای آنلاین با حداقل خطای احتمالی
7. سازماندهی و هدایت بحثهای کلاسی بهصورت تعاملی
8. تهیه و تدوین برنامه ارزشیابی متناسب با اهداف درسی
9. مدیریت دقیق تمرینها و پروژههای فردی و گروهی
10. گزارشگیری تحلیلی و مقایسهای از عملکرد فراگیران
این یافتهها بیانگر آن هستند که ارزشیابی تکوینی در بستر الکترونیکی، زمانی میتواند اثربخش باشد که با برنامهریزی دقیق، تنوع ابزارها، و تمرکز بر بازخورد و تعامل همراه گردد. در ادامه، جدول 2 شامل برخی از پژوهشهای مرتبط با ارزیابی تکوینی دیجیتال همراه با ابعاد بررسیشده در این مطالعات آورده شده است.
جدول 2.برخی از پژوهشهای مرتبط با ارزیابی تکوینی دیجیتال
نام پژوهشگر / سال | عنوان پژوهش | ابعاد مورد بررسی |
عباسی و همکاران (1402) | راهحلهای بهبود ارزشیابی تکوینی در نظام یادگیری الکترونیکی | ابزارهای ارزیابی، بازخورددهی، احراز هویت، آزمونهای آنلاین، مدیریت تکالیف، گزارشگیری تحلیلی و مقایسهای |
Nikou & Economides (2019) | Mobile-based assessment: A review of formative feedback | بازخورد فوری، استفاده از موبایل، خودارزیابی، تعاملپذیری بالا |
Redecker & Johannessen (2013) | Changing assessment – Towards a new assessment paradigm | بهرهگیری از فناوری دیجیتال، یادگیری شخصیسازیشده، دادهمحوری در ارزیابی |
Shute (2008) | Focus on formative feedback | بازخورد هوشمند، طراحی بازخورد اثربخش، تحلیل عملکرد فراگیران |
Wiliam & Thompson (2007) | Integrating assessment with instruction | نقش معلم در بازخورددهی، ادغام ارزیابی در فرآیند تدریس، مشارکت فعال فراگیران |
Aldon et al. (2015) | Assessment in digital learning environments | چالشهای ارزیابی دیجیتال، ابزارهای نوین سنجش، پایش مستمر یادگیری |
Gikandi, Morrow & Davis (2011) | Online formative assessment in higher education | طراحی آزمون آنلاین، بازخورد آنی، مشارکت فعال در محیط یادگیری مجازی |
در بررسی پیشینۀ پژوهش، چندین انتقاد اساسی به مدلها و رویکردهای ارائهشده در زمینۀ ارزیابی تکوینی (بهویژه در محیطهای یادگیری الکترونیکی) وارد شده است: نقد اول، مفهومیبودن و فقدان مدلهای اجرایی است (Alizadeh, 2016)؛ (Decristan, 2015). انتقاد دیگر این است که برخـی از مدلهای ارزیابی تکوینی، نبود نقشۀ راه مشخص برای بهبود و کلیگویی در روشهای ارزیابی (Black P. W., 2018)؛ (Bicer, 2017)، از جمله کاستیهای رایج در حوزۀ ارزیابی تکوینی دیجیتال به شمار میرود. تاکنون، روشهای مختلفی برای ارزیابی تکوینی دیجیتال ارائه شدهاند که اغلب تنها به بررسی ابعاد پراکنده و فعالیتهای جداگانه پرداختهاند. با این حال، در ادبیات موجود، تلفیق مؤثر فعالیتهای ارزیابی با راهبردهای فناورانه بهندرت مورد توجه قرار گرفته است (Griffin P. M., 2012). در نتیجه، نبود یک مدل کاربردی برای پیادهسازی و ارزیابی تکوینی همراستا با فناوریهای دیجیتال، در مطالعات انجامشده کاملاً محسوس است.
هدف اصلی این پژوهش، رفع این خلأها و محدودیتهاست. با توجه به اینکه شناسایی عوامل مؤثر بر ارزیابی تکوینی میتواند افقهای جدیدی در زمینه طراحی و اجرای ارزیابیهای دیجیتال فراهم کند، این پژوهش به بررسی عوامل کلیدی موفقیت ارزیابی تکوینی دیجیتال میپردازد. همچنین با تحلیل دقیق مقالات منتشرشده در معتبرترین نشریات حوزۀ آموزش و یادگیری الکترونیکی، تلاش شده تا از طریق بازتعریف مفاهیم و اولویتبندی یافتهها، رویکردی نوین در این زمینه پیشنهاد شود.
3. روششناسی پژوهش
با توجه به اینکه هدف پژوهش، شناسایی عوامل مؤثر بر موفقیت ارزیابی تکوینی دیجیتال در راستای فرآیند یادگیری است، نوع این تحقیق کاربردی به شمار میآید. از طرفی، چون دادهها بدون دخالت و بهصورت طبیعی جمعآوری شدهاند، روش تحقیق در دستۀ توصیفی قرار میگیرد. برای پاسخ به سؤال پژوهش، در بخش کیفی برای یافتن شاخصهای موثر بر موفقیت ارزیابی تکوینی دیجیتال از روش فراترکیب و سپس در بخش کمی برای تعیین اولویتبندی و وزن شاخصهای بهدستآمده از روش آنتروپی شانون استفاده شد.
1-3. بخش کیفی: روش فراترکیب
فراترکیب، فرآیندی است که طی آن مطالعات کیفی یا کمی در یک حوزۀ خاص جستوجو، بررسی، ترکیب و تفسیر میشوند (Catalano, 2013). با وجود پتانسیل بالای این رویکرد، تاکنون استفاده گستردهای از آن در حوزۀ آموزش و یادگیری الکترونیکی و بهویژه در زمینۀ ارزیابی تکوینی دیجیتال صورت نگرفته است. این روش دارای مراحل اجرایی متعددی است که اجرای دقیق آنها برای پژوهشگران میتواند چالشبرانگیز باشد.
در این پژوهش، برای اجرای فراترکیب از الگوی هفتمرحلهای ساندلوسکی و بارسو (2006) استفاده شده است. مراحل عبارتند از:
تدوین پرسش پژوهش
مرور نظاممند ادبیات موضوع
جستوجو و انتخاب منابع مرتبط
استخراج دادهها از منابع
تحلیل، ترکیب و یکپارچهسازی یافتهها
ارزیابی کیفیت منابع
ارائه نتایج
پس از طی این مراحل، برای تعیین اولویت و اهمیت مفاهیم استخراجشده، از روش کمی آنتروپی شانون بهره گرفته شده است تا وزن و ارزش شاخصهای نهایی مشخص شود.
گام اول: تدوین پرسش پژوهش
در چارچوب روش فراترکیب، اولین مرحله تدوین سؤال پژوهشی است. سؤال اصلی این پژوهش چنین است:
عوامل مؤثر بر موفقیت ارزیابی تکوینی دیجیتال در آموزش و یادگیری الکترونیکی چیست؟ برای تدوین این سؤال، به چهار عنصر کلیدی توجه شده است:
چه چیزی (What): نخستین مرحله در طراحی پرسش پژوهش، تمرکز بر موضوع اصلی یا همان "چه چیزی" است. در این پژوهش، هدف اصلی شناسایی مؤلفهها و ابعاد کلیدی موفقیت در ارزیابی تکوینی دیجیتال در بستر آموزش و یادگیری الکترونیکی است.
چه کسی (Who): این بخش به تعریف جامعه مورد مطالعه میپردازد. در این تحقیق، جامعۀ پژوهش شامل منابع اطلاعاتی مختلف از جمله پایگاههای داده علمی، کنفرانسها، مجلات تخصصی و موتورهای جستجوی علمی است که مورد تحلیل قرار گرفتهاند.
چه زمانی (When): این بخش به بازۀ زمانی بررسی منابع اشاره دارد. مطالعات و مقالات انتخابشده مربوط به سالهای 2000 تا 2022 هستند که در این بازه زمانی مورد بررسی و تحلیل قرار گرفتهاند.
چگونه (How): این بخش به روش گردآوری و تحلیل دادهها اشاره دارد. در این پژوهش از روش «تحلیل محتوا» بهعنوان رویکرد اصلی استفاده شده است. بهعبارت دیگر، دادهها بهصورت ثانویه مورد تحلیل قرار گرفتهاند. در این فرآیند، پژوهشگر با تعیین معیارهای مشخص، مقالات مرتبط را انتخاب کرده و وارد مرحله فراترکیب میکند، و مقالات نامرتبط یا غیرقابلاستفاده را کنار میگذارد. جدول 3 این مرحله را بر اساس الگوی سندوسکی و بارسو به تصویر میکشد.
جدول 3. طرح سؤال پژوهش
سؤال های پژوهش | مؤلفهها |
عوامل تاثیرگذار بر موفقیت ارزیابی تکوینی دیجیتال | چه چیزی (What) |
پایگاههای دادۀ علمی قابل استناد | جامعۀ مورد مطالعه (Who) |
کلیه پژوهشهای منتشرشده در سالهای 2000 تا 2022 | محدوده زمانی (When) |
با استفاده از روش تحلیل محتوا دادهها تحلیل شدهاند. | چگونگی روش (How) |
گام دوم: بررسی متون به صورت نظاممند
مرحله جستوجو شامل چند وظیفه اساسی است که عبارتند از:
شناسایی پایگاههای داده مرتبط با ادبیات موضوع
انجام جستوجوی مقدماتی
کاوش اطلاعات پیرامون موضوع منتخب
استخراج و انتخاب کلیدواژههای مناسب
اجرای جستوجوی دقیق و هدفمند
در آغاز این مرحله، پژوهشگر با مراجعه به پایگاههای اطلاعاتی مختلف، جستوجوی اولیهای را پیرامون موضوع انجام میدهد و اطلاعات پایه را گردآوری میکند. سپس با تحلیل این دادههای اولیه، فهرستی از واژههای کلیدی و راهبردی استخراج میشود که نقش هدایتگر در جستوجوهای بعدی دارند.
برای انجام یک جستوجوی نظاممند، تعیین بازۀ زمانی انتشار منابع، گامی ابتدایی و ضروری به شمار میآید. در این پژوهش، مقالات و منابع منتشرشده در بازۀ زمانی سالهای 2000 تا 2022 از طریق پایگاههای اطلاعاتی گوگل اسکالر (Google Scholar)، اسکوپوس (Scopus)، وب آو ساینس (Web of Science)، پابمد (PubMed)، سیویلیکا (Civilica) و مجله مگیران (Magiran) و مجلات پژوهشی مرتبط مانند پرتال نشریات علمی و پژوهشی کشور، واژگان کلیدی «آموزش از راه دور»، «فناوری آموزشی»، «سنجش تکوینی»، «موفقیت آموزشی»، «سنجش تکوینی دیجیتال»، «یادگیری الکترونیکی»، «سیستمهای مدیریت یادگیری» مورد کاوش و جستجو قرارگرفتهاند.
گام سوم: جستوجو و انتخاب مقالات مناسب
در مرحلۀ سوم از روش ساندلوسکی و بارسو، پژوهشگر بررسی میکند که آیا مقالات شناساییشده با سؤال اصلی تحقیق همراستا هستند یا خیر. در این گام، مقالات بر اساس شاخصهای کیفی مشخص ارزیابی میشوند و آن دسته از منابعی که استانداردهای لازم را ندارند، از چرخۀ تحلیل کنار گذاشته میشوند.
این مرحله معمولاً به صورت تکرارشونده انجام میگیرد؛ به این صورت که در هر دور بازبینی، تعدادی از اسناد حذف شده و منابع باقیمانده مجدداً بررسی میگردند.
پژوهشگر در هر مرحله بر اساس یک معیار خاص (مانند عنوان، چکیده، جامعۀ آماری، روششناسی پژوهش و محتوای مقاله) به پالایش مقالات میپردازد. در اولین مرحله، عناوین مقالات بررسی شدهاند و آن دسته از منابعی که کاملاً نامرتبط بودند حذف شدهاند. مقالاتی که ارتباط نسبی داشتند برای بررسیهای بیشتر نگه داشته شده و موارد کاملاً مرتبط دستهبندی شدند.
بیشترین میزان حذف مقالات در همین مرحله اولیه (بررسی عنوان) صورت گرفت. در مرحلۀ بعد، چکیدۀ مقالات بررسی شد که طی آن نیز تعداد قابل توجهی از مقالات به دلیل عدم ارتباط محتوایی با موضوع پژوهش، کنار گذاشته شدند.
در نهایت، مقالات باقیمانده با توجه به معیارهایی مانند جامعۀ آماری، محتوای تحقیق و روش پژوهشی مورد ارزیابی قرار گرفتند تا تنها مقالاتی که بیشترین تطابق با هدف پژوهش را دارند انتخاب شوند.
در مجموع، در جستوجوی اولیه، 217 مقاله مرتبط شناسایی شد. سپس بر اساس معیارهایی همچون عنوان، چکیده، دسترسی، محتوا و روش پژوهشی، مقالات مورد ارزیابی قرار گرفتند. روند غربالگری مقالات در فلوچارت شکل ۱ نمایش داده شده است.
شكل 1. الگوریتم جستوجو و انتخاب مقالات مناسب مبتنی بر روش فراترکیب
گام چهارم: استخراج اطلاعات متون
در روش فراترکیب، محقق به منظور دستیابی به یافتهها و محتوای مجزا و کشف شده، مقالات منتخب و نهاییشده را چندین بار می خواند و بررسی میکند. در این پژوهش، اسناد گردآوریشده از طریق روش تحلیل محتوا مورد بررسی قرار گرفتند. تحلیل محتوا، روشی نظاممند برای تحلیل عمیق اسناد و منابع علمی بهمنظور شناسایی الگوها، مفاهیم و شاخصهای کلیدی در متون است. در این مرحله، محتوای مقالات بهصورت دقیق و هدفمند مطالعه گردید و شاخصهای اصلی مرتبط با موضوع پژوهش استخراج شدند.
پژوهشگر در آغاز، تعداد ۲۱۷ مقاله را بهعنوان منابع اولیه شناسایی کرد. پس از غربالگری و اعمال معیارهای ورود و خروج، در نهایت ۷۶ مقاله مرتبط انتخاب شد. تحلیل این مقالات منجر به استخراج ۸۰ شاخص کلیدی گردید که در قالب ۵ بُعد اصلی و ۲ مقوله کلی طبقهبندی شدند.
گام پنجم: تجزیه و ترکیب یافتهها
در گام پنجم، عبارات استخراجشده از مقالات پذیرفتهشده مورد تحلیل و تفسیر عمیق قرار گرفتند. خروجی این مرحله، از دستهبندیهای ابتدایی تا مفهومسازیهای پیشرفته را در بر میگیرد؛ به همین دلیل، این مرحله با عنوان «فراترکیب» (Meta-Synthesis) شناخته میشود.
در بهکارگیری عمیق روش فراترکیب، فرآیند از تحلیل ساده مفاهیم و دستهبندی آنها آغاز شده و تا کدگذاری مفاهیم، تعریف شاخصها، و مقولهبندی علمی یافتهها ادامه مییابد. هدف اصلی این روش، ایجاد برداشت و تفسیری نو و یکپارچه از یافتههای پیشین است؛ بهگونهای که بتوان از طریق ترکیب و بازآرایی دادهها، به دانشی منسجم، ساختیافته و قابل انتقال دست یافت.
فراترکیب شامل دو بخش اساسی است:
تحلیل (Analysis): در این بخش، دادهها شکسته شده و عناصر تشکیلدهندهی آنها از یکدیگر جدا میگردند.
ترکیب (Synthesis): در این مرحله، عناصر تحلیلشده با یکدیگر مرتبط شده و ادغام میگردند تا مفاهیم و مضامین مشترک میان آنها شناسایی و استخراج شوند.
در روند اجرای این روش، عبارات مرتبط با سؤال اصلی پژوهش از مقالات استخراج شده و برای هر عبارت، کدهای مشخصی در نظر گرفته میشود. این کدها در جدولهایی نظاممند گردآوری و بهصورت مکرر بازبینی و جابهجا میشوند تا مفاهیم مشابه در قالب دستههای همگون قرار گیرند. این روند تکرارشونده و انعطافپذیر، زمینه را برای کشف الگوهای مفهومی تازه و تولید نظریههای نوین فراهم میسازد.
گام ششم: کنترل کیفیت
اگرچه ارزیابی مقالات از نظر همراستایی با معیارهای موردنظر از اهمیت بالایی برخوردار است، اما در روش فراترکیب، ارزیابی اسناد بر اساس شاخصهای کیفی، از اهمیت بیشتری برخوردار است. بهمنظور حفظ اعتبار و کیفیت پژوهش، پژوهشگر در فرآیند اجرای مطالعه، مجموعهای از رویههای استاندارد را دنبال میکند:
1. پژوهشگر تلاش کرد در تمامی مراحل پژوهش، با تبیین دقیق و شفاف گزینههای در دسترس، روند انجام گامها را بهصورت نظاممند و مستند پیش برد.
2. در مراحل مناسب، از رویکردهای تلفیقی معتبر در تحقیقات کیفی برای ادغام یافتههای مطالعات اصلی بهره گرفت.
3. برای ارزیابی کیفیت مطالعات اولیه، پژوهشگر از ابزارهای استاندارد مانند چکلیست CASP (Critical Appraisal Skills Programme) استفاده کرد تا روایی و اعتبار دادههای کیفی مورد بررسی قرار گرفت.
4. برای دستیابی به منابع علمی معتبر، از راهبردهای دقیق جستوجوی الکترونیکی در پایگاههای داده استفاده شد.
5. پژوهشگر، روشهای کنترل کیفیت بهکاررفته در مطالعات پژوهش کیفی اصلی را استفاده کرد.
6. در سنجش کیفیت تلفیق پژوهش، پژوهشگر از ابزار سنجش پژوهش کیفی CASP برای سنجش فرامطالعات استفاده کرد، این ابزار شامل سوالاتی بود که کمک کرد بررسیها معقول به نظر برسند.
در این مرحله، تمامی نتایج حاصل از مراحل پیشین بهصورت گزارش نظاممند ارائه شد. ارائۀ گزارش باید به گونهای بود که از نظر اعتبار، وضوح و انسجام منطقی قابل قبول باشد. یکی از رایجترین شیوههای نمایش نتایج در پژوهشهای کیفی، استفاده از جداول است که اطلاعات را به شکلی سازمانیافته و قابل مقایسه ارائه دهند.
2-3. بخش کمی: اولویتبندی با روش آنتروپی شانون
در مسائل تصمیمگیری چندمعیاره، بهویژه در تصمیمگیریهای مبتنی بر تحلیل شاخصها، دانستن وزن نسبی هر شاخص گامی حیاتی محسوب میشود. چرا که شاخصها از نظر اهمیت در فرآیند تصمیمگیری یکسان نیستند و تأثیرگذاری آنها متفاوت است. در چنین شرایطی، مشخص نمودن ضریب اهمیت شاخصها، کیفیت تصمیمگیری را بهطور چشمگیری افزایش میدهد.
روش Entropy که در سال 1948 توسط شانون و ویور معرفی شده، یکی از روشهای معتبر برای تعیین وزن معیارها در مدلهای تصمیمگیری چندمعیاره است. این روش میزان عدم قطعیت یا پراکندگی اطلاعات در میان دادهها را اندازهگیری میکند. ایده اصلی آن است که:
هرچه مقدار یک شاخص در منابع مختلف پراکندگی بیشتری داشته باشد، نشاندهندۀ اهمیت بالاتر آن شاخص است.
بنابراین، شاخصهایی که بیشتر مورد توجه و تأکید پژوهشها قرار گرفتهاند، وزن بیشتری دریافت میکنند. استفاده از روش آنتروپی شانون در این پژوهش، امکان دستیابی به وزندهی علمی و مبتنی بر داده برای شاخصهای شناساییشده را فراهم ساخته و مبنایی منطقی برای اولویتبندی آنها ایجاد نموده است.
طبق نظریۀ اطلاعات شانون، وقایعی که احتمال وقوع بالایی دارند، مقدار کمتری از اطلاعات را فراهم میکنند، در حالی که رخدادهایی با احتمال کمتر، اطلاعات بیشتری به همراه دارند. این بدان معناست که هرچه رخدادی نادرتر باشد، کشف آن منجر به کاهش بیشتری در عدم قطعیت خواهد شد و در نتیجه، ارزش اطلاعات حاصل از آن بیشتر است.
بر اساس این نظریه، وقتی اطلاعات جدیدی بهدست میآید، بخشی از ابهام و عدم اطمینان موجود کاهش مییابد. بنابراین، رابطهای مستقیم میان مقدار اطلاعات و کاهش عدم قطعیت وجود دارد. به بیان دیگر، اطلاعات ارزشمند، اطلاعاتی است که بیشترین تأثیر را در کاستن از ابهام داشته باشد.
4. یافتهها
بر اساس تحلیل محتوای 76 مقاله منتخب نهایی، در مجموع دو مقوله اصلی، پنج بُعد و 80 شاخص به عنوان عوامل مؤثر بر موفقیت ارزیابی تکوینی در راستای استراتژیهای دیجیتال شناسایی و کدگذاری شدند. یافتههای این مرحله نشان دادند که در مطالعات پیشین، پژوهشی با رویکردی به این میزان جامع، نظاممند و تلفیقی انجام نگرفته است. اغلب پژوهشهای پیشین تنها به جنبههای محدود یا خاصی از ارزیابی تکوینی پرداختهاند، در حالیکه در این مطالعه، ابعاد مختلف آن به شکل پویا و ساختاریافته بررسی شدند.
شاخصهای نهایی که برای هر بُعد و مقوله تعیین شدند، به همراه منابع علمی مربوط به استخراج آنها در جدولهای 4 الی 9 ارائه گردیده است مقولهها و ابعاد مربوط به هر یک به شرح زیر هستند:
جدول شماره4. ابعاد و مقولههای بهدستآمده از روش فراترکیب
مقوله | ابعاد |
عوامل انسانی | یاددهنده (معلم) |
یادگیرنده(دانش آموز ) | |
فنی و تکنولوژی | مطالب آموزشی و محتوی درسی |
ساختارها و ابزارهای فناوری دیجیتال | |
شرایط محیطی |
1. معلم (Teacher): نقش معلم در ارزیابی تکوینی دیجیتال حیاتی است؛ زیرا او مسئول طراحی فعالیتهای ارزیابی، ارائۀ بازخورد مستمر و تحلیل دادههای یادگیری دانشآموزان است. پژوهشهایی مانند رینولز (2020) و ویلسون (2016) نشان میدهند که مهارت دیجیتال معلمان، نگرش آنان نسبت به ارزیابی تکوینی و توانایی مدیریت ابزارهای آنلاین نقش مهمی در موفقیت این نوع ارزیابی ایفا میکنند.
2. دانشآموز(Learner): دانشآموز در فرآیند ارزیابی تکوینی دیجیتال باید نقش فعالی ایفا کند. مشارکت، خودارزیابی و پذیرش بازخورد از اجزای کلیدی این نقش است. تحقیقات بلک (2004) و مکمیلان و کالی (2010) تأکید دارند که توانمندسازی فراگیران در استفاده از ابزارهای دیجیتال و مشارکت فعال در فرآیند یادگیری، باعث افزایش انگیزش و بهبود عملکرد تحصیلی میشود.
3. محتوای آموزش (Educational Content): محتوای آموزشی باید با اهداف یادگیری و ارزیابی همراستا بوده و قابلیت اجرا در محیط دیجیتال را داشته باشد. طبق نظر علیزاده (1396) و اندرسون (2003)، طراحی محتوا باید به گونهای باشد که فرصتهایی برای ارزیابی مستمر و معنادار فراهم شود. محتواهای غنیشده با چندرسانهایها میتوانند فرآیند بازخورد و درگیری شناختی را تقویت کنند.
4. زیرساخت و ابزار دیجیتال (Infrastructure & Tools): ابزارها و پلتفرمهای دیجیتال نقش پشتیبان در اجرای اثربخش ارزیابی تکوینی ایفا میکنند؛ از جمله سامانههای مدیریت یادگیری (LMS)، آزمونهای آنلاین، ابزارهای بازخورد و سیستمهای تحلیلی. انجی (2012) و کونیچو (2016) تأکید کردهاند که بدون دسترسی مناسب به زیرساختهای فنی و ابزارهای استاندارد، ارزیابی تکوینی دیجیتال کارایی لازم را نخواهد داشت.
5. محیط یادگیری (Learning Environment): محیط یادگیری باید تعاملمحور، حمایتگر و باز باشد تا بتواند فضای مناسبی برای بروز رفتارهای یادگیری و دریافت بازخورد فراهم آورد. بر اساس پژوهش چو (2016) و کاتالیست (2018)، فضای آنلاین باید حس امنیت، انگیزه و مشارکت را برای دانشآموز ایجاد کند؛ چراکه این عوامل در اثربخشی ارزیابی تکوینی نقش کلیدی دارند.
جدول شماره ۵: شاخصهای استخراجشده مرتبط با بُعد معلم
شاخص | منابع | |
1 | جمعآوری شواهد یادگیری | (بلک،2004)؛ (رینولز،2020)؛ (بلک و دولین،2018)؛ (بنت،2011)؛ (ویلیام تامپسون،2007)؛ |
2 | تصمیمگیریهای آموزشی/ زمان آموزش | (بلک،2004)؛ (شفرد،2010)؛ (بلوم،2010)؛ (مک فاندلینگ و نیکول،2006)؛ (بلک و دولین،2018)؛ (شاولسون،2008)؛ (کاوی،2013)؛ |
3 | توجه به نیازهای یادگیری یادگیرندگان | (شفرد،2010)؛ (بلک،2004)؛ (زی،2019)؛ |
4 | شناسایی قوت و ضعفها | (ریچاردسون،2017)؛ (نیکول،2006)؛ |
5 | نظارت بر تحقق انتظارات آموزشی و پرورشی | (مک فاندلینگ،2006)؛ |
6 | هدایت مداوم یادگیری یادگیرندگان بر پایۀ تواناهایشان | (بلک،2004)؛ ( وانگ،2006)؛ |
7 | اصلاح و بهبود روشهای آموزشی اعمالشده در کلاس | (اندرسون،2003)؛ |
8 | کشف راهکارهای متناسب با رشد یادگیرنده | (کاستلونزریز،2020)؛ |
9 | ارائۀ بازخورد مناسب،در مورد فعالیتها و کوششها، خاص و مفصل، تشویق و انتقاد | (رینولز،2020)؛ (ویلسون،2016)؛ (وانگ،2006)؛ (یوشیدا،2016)؛ (هیمر،2016)؛ (کلیمودا،2015)؛ (کیپل،2010)؛ (مهدوی،2011)؛ (هیر،2016)؛ (حجازی،2006)؛ (یوسفوند،2015)؛ (برونینگ،1999)؛ (دینهام،2005)؛ (ویلسون،2016)؛ (زیمرمن،2011)؛ (دیگنات،2008)؛ (بلک،2004)؛ (هادسمن،2013)؛ (مکفارلینگ،2006)؛ (مکمیلان،2010)؛ (ویلیام تامپسون،2007)؛ (هتی،2007)؛ (کاوی،2013)؛ (نیلند،2018)؛ (اسپکتور،2016)؛ (ببلاوی،2019)؛ |
10 | آگاهی از چگونگی تشکیل ساختارهای ذهنی یادگیرنده | (بلک،2018)؛ |
11 | پرورش تفکر انتقادی | (چو،2014)؛ (لاوسون،2006)؛ (دیم،2006)، |
12 | انطباق روش/برنامه/ وسایل و منابع آموزشی با نیاز یادگیرنده | (زی،2019)؛ |
13 | کشف شکاف بین انتظارات آموزشی با دانش و فهم یادگیرنده | (مکفارلینگ،2006)؛ |
14 | توانمندسازی و ایجاد انگیزه / رشد ذهنی | (بلک،2004)؛ (هادسمن،2013)؛ (مکمیلان،2010)؛ (دوک،2006)؛ (مک فاندلینگ و نیکول،2006)؛ (کیفر،2014)؛ |
15 | کشف شکاف بین آموزش و فهم و مهارت | (بلک،2004)؛ (مکفارلینگ،2006)؛ |
16 | آگاهی از پیشرفت یادگیری | (بلک،2018)؛ (هتی،2007)؛ |
17 | تبیین اهداف یادگیری و معیار موفقیت | (رینولز،2020)؛ (بلک،2004)؛ (وانگ،2006)؛ (پیلتر،2012)؛ (تامپسون،2006)؛ (بلک و دولین،2018)؛ (شاولسون2008)؛ (ویلیام تامپسون،2007)؛ (هتی،2007)؛ (ولیانوینسن،2015)؛ |
18 | فن معلمی | (کوهلر و میشرا،2009)، |
19 | به روزبودن در شیوههای جدید آموزش و تجهیزات آموزشی | (کروئل مایزف2013)؛ ( (کوهلر،2009)؛ (تامپسون،2006)؛ |
20 | ارزیابی تراکمی | (مکمیلان،2010)؛ (هیوارد،2015)؛ |
جدول6. شاخص های مرتبط با دانشآموز
ردیف | شاخص | منابع |
دریافت بازخورد | (ویلسون،2016)؛ ( ریچاردسون،2017)؛ (زیمییر،2011)؛ (ویلدکامپ،2015)؛ (مایر،2016)؛ (هتی،2007)؛ (کاوی،2013)؛ (ولیانوینسن،2015)؛ | |
22 | یادگیرنده خودکار/ خود تنظیمی | (بلک،2004)؛ (هادسمن،2013)؛ (مکمیلان و کالی،2010)؛ (نیکول،2006)؛ (بکن،2015)؛ (هتی،2007)؛ |
23 | تمرین و تکلیف/ سوالات | (ویلیام تامپسون،2007)؛ |
24 | تلاش و پشتکار | (بلک،2004)؛ (لویولا، 2010)؛ (کیپل،2010)؛ (مک میلان،2010)؛ (دوک،2006)؛ |
25 | ارزیابی از خود | (رینولز،2020)؛ (ویلیام تامپسون،2007)؛ (تقیزاده،1397)؛ |
26 | ارزیابی از همتایان | (رینولز،2020)؛ (پالفری،2010)؛ (ویلیام تامپسون،2007)؛ (اندرسون،2003)؛ (تقیزاده،1397)؛ |
27 | بحثهای کلاسی | (رینولز،2020)؛ (گیلبرت،2013)؛ (ویلیام تامپسون،2007)؛ |
28 | شوق یادگیری / اعتقاد به موفقیت | (گیلبرت،2013)؛ ( بلک،2004)؛ |
29 | انگیزه ذاتی | (گیلبرت،2013)؛ (بلک،2004)؛ (کیفر،2014)؛ (بکن،2015)؛ |
30 | استراتژی یادگیری عمیق / آگاهی از یادگیری | ( گیلبرت،2013)؛ (دمولا،2010)؛ (جییونگ،2014)؛ (مک میلان،2010)؛ (دوک،2006)؛ (دوسل،2019)؛ (بنت،2011)؛ |
31 | افزایش رشد ذهنی | (کیفر،2014)؛ (گیلبرت،2013)؛ (آندرمان،1994)؛ |
32 | نگرش به محیط کلاس | (کیفر،2014)؛ (جیونگ،2016)؛ (کریپول،2010)؛ (ییلاق و نیسی،2014)؛ |
33 | اعتماد به نفس پایین/ استرس بالا | (تقوی نیا،2017)؛ |
34 | کاهش فشار روانی دانش آموز | (کیلمووا،2019)؛ |
35 | تابآوری | (قیمیوی،2013)؛ (هاندرسون،2006)؛(روبرتز،2006)؛ |
36 | معنای تحصیل | (تقوی نیا،2017)؛ (شینی،2014)؛(قیمیوی،2013)؛ (هاندرسون،2006)؛(روبرتز،2006)؛(مهدوی،2011)؛ (تاوسون،2014)؛ (موسک،2016)؛ (کلیمودا،2015)؛ (کینگ والمیک،2006)؛ (ماو،2017)؛ (کیپل،2010)؛ (لی و برنارد،2011)؛ |
37 | بکارگیری استراتژی یادگیری عمیق | (گیلبرت،2013)؛ (لی،2011)؛ (ویلیام،2019)؛ (ولیانوینسن،2015)؛ (علیزاده،1396)؛ |
38 | درک شکست به عنوان بخشی مفید از فرآیند یادگیری | ( مک میلان،2010)؛ |
39 | مهارت در انتخاب برنامه و نرمافزار | (پالفری،2010)؛ (پیتلر،2012)؛ (تامپسون،2006)؛ |
40 | زندگی در دنیای دیجیتال | (پالفری،2010)؛ (پیتلر،2012)؛ (پرسنکی،2001) |
41 | مسئولیتپذیری | (پیتلر،2012)؛ (پرسنکی،2001)؛ (جانسون،2012)؛ |
جدول7. شاخصهای مرتبط با محتوای آموزشی
ردیف | شاخص | منابع |
42 | برنامۀ درسی | (لاوسون،2006)؛ (دیم،2006)؛ (الشوف،2009)؛ (جانسون،2012)؛ (پالفری،2008)؛ (پینگ،2007)؛ (کوهلر،2009)؛ (شاولسون،2008)؛ |
43 | مواد آموزشی | (اندرسون،2003)؛ |
44 | رسانه | (پالفری،2010)؛ (پیتلر،2012)؛ ((تامپسون،2006)؛ |
45 | روشهای تدریس | (کوهلر و میشرا،2009)، (روئیز،2006)؛ |
46 | فرآیند ارزشیابی پیشرفت تحصیلی | (راش،2004)؛ (نیکتو،2001)؛ (اگن،2001)؛ (کرونباخ،1980)؛ (کمیسیون اروپا،2016)؛ (ویلیام تامپسون،2007)؛ (مورلین،2016)؛ (لیسات،2017)؛ (مووس و برهوت،2019)؛ (کلتاش،1394)؛ (علیزاده،1396)؛ |
47 | تفسیر ارزیابی تکوینی و جمعبندی | (لونی،2019)؛ (بلک،2018)؛ (بلک و دولین،2018)؛ |
48 | به اشتراکگذاری | (پالفری،2010)؛ (کاسر،2010)؛ (کاستلونزریز،2020)؛ (ولیانوینسن،2015)؛ |
49 | روایی ارزیابی | (استوبارت،2006)؛ (بنت،2011)؛ |
50 | دسترسی به محتوا برخط و در زمانهای مختلف | (جانسون،2012)؛ (پالفری،2010)؛ (مورگان،2012)؛ |
جدول8. شاخصهای مرتبط با زیرساخت و ابزارهای دیجیتال
ردیف | شاخص | منابع |
51 | ابزار فناوری اطلاعات / بومیان دیجیتال | (ان جی،2012)؛ (پرسینکی،2001)؛ (پالفری،2010)؛ (پیتلر،2012)؛ (مورگان،2012)؛ (جانسون،2012)؛ (دز،2020)؛ (سیندی،2020)؛ (کونیچو،2016)؛ |
52 | امنیت / ایمنی کودکان | (جانسون،2012)؛ (پالفری،2010)؛ (کروئل مایز،2013)؛ (پالفری و گسر،2008)؛ |
53 | سواد دیجیتال / صلاحیت دیجیتال | (ان جی،2012)؛ (مک کار،2019)؛ (فینلیسون و مک لویین،2017)؛ (ویلیام،2019)؛ |
54 | رویکرد آموزشی/ پیشرفت و انگیزه | (کیفر،2014)؛(گیلبرت،2013)؛ (فابر،2017)؛ (کینگمور،1993)؛ |
55 | محیطهای یادگیری مجازی (معماری) | (سیندی،2020)؛ (زی،2019)؛ (براون،2019)؛ (کاستلونزریز،2020)؛ (زینها،2014)؛ (رینولز،2020)؛ (راسل،2011)؛ (آزودو،2009)؛ (کوکو،2013)؛ (بیتی،2009)؛ (تقیزاده،1397)؛ (سالسدو،2005)؛ (کونیچو،2016)؛ |
56 | تحلیل یادگیری / داشبورد دادهها | (فرگوسن،2016)؛ (شوبندیمن،2016)؛ (بازک،2007)؛ (باگات،2017)؛ (نیلند،2018)؛ (سلین،2019)؛ (اسپکتور،2016)؛ (هسو،2011)؛ (ببلاوی،2019)؛ |
57 | سیستم تدریس خصوصی هوشمند | (زی،2019)؛ (کندی،2013)؛ (رازاک،2005)؛ (کودینگر،2006)، (کرترنر،2000)؛ (کوربت،2010)؛ (کاسورنین،2009)؛ (کوبرت،2013)؛ (آزودو،2009)؛ (تیلور،2019)؛ (کونیچو،2016)؛ |
58 | بازیها (گیم فیکیشن) | (بیکر،2008)؛ (گمراهی،2012)؛ (رحیمی،2017)؛(دیچیوا،2017)؛ (کلارک،2019)؛ (کیم،2015)؛ (شوت،2016)؛ |
59 | ابزارهای دیجیتال | (سیندی،2020)؛ (اندرسون،2003)؛ (کاستون،2016)؛ (رینولز،2020)؛ (زینسکی،2006)؛ (بنت، 2000)؛ (اپل،2017)؛ (کونیچو،2016)؛ (کسادی،2015)؛ (غونیم،2017)؛ (کوکو،2013)؛ (بیتی،2009)؛ (تقیزاده،1397)؛ |
60 | سیستمهای مدیریت محتوا / داده کاوی | (غونیم،2017)؛ (کاتالیست،2018)؛ (کندی،2013)؛ (سالسدو،2005)؛ |
61 | مدیریت فناوری اطلاعات | (هوکر،2017)؛ (زینها،2014)؛ (رینولز،2020) |
جدول9. شاخصهای مرتبط با محیط
ردیف | شاخص | منابع |
گنجاندن اقلام جدید/ سازههایی که قبلا قابل ارزیابی نبودند. | (چو،2016)؛(لونی،2019)؛ (رحیمی،2017)؛ | |
63 | تعاملات برخط | (کاستلونزریز،2020)؛ (زنیها،2014)؛ (دیچیوا،2017)؛ (کوکو،2013)؛ |
64 | مشاهدۀ سطح یادگیری / نمایش پیشرفت تحصیلی | (ولیانیسن،2015)؛ (هندریکس،2018)؛ (ویلی،2018)؛ (هدکر،2017)؛ (اسمارت،2015)؛ |
65 | مشارکت فعال فراگیران/ تعامل اجتماعی | (بلک،2018)؛ ( بلک ویلیام،2018)؛ (دکرستون،2015)؛ (شاولسون،2008)؛ (پادگان،2000)؛ (کاستلونزریز،2020)؛ |
66 | تهدیدها ( کمبود وقت و منابع جو اعتماد و انگیزه) | (استوبارت،2006)؛ |
67 | عدم پیچیدگی محیط دیجیتال | (چو،2016)؛ (وانگ،2016)؛ (پنگ،2016)؛ (مورگان،2012)؛ (بروان،2018)؛ (لی،2012)؛ |
68 | فرآیند بازخورد خودکار دیجیتال / بازخورد برخط | (اسیکتور،2016)؛(لونی،2019)؛ (رحیمی،2017)؛ (موربین،2016)؛ (کندی،2013)؛ (تیلند،2018)؛ (اسپکتور،2016)؛ (ببلاوی،2019)؛ (گوبرت،2013)؛ (کیم،2015)؛ (شوت،2016)؛ (فارل،2016)؛ (بیتی،2009)؛ (آجالود،2015)؛ (رینولز،2018)؛ (هتی،2007)؛ (نیگر،2018)؛ (تقیزاده،1397)؛ |
69 | دسترسی دانشآموزان معلول | (لونی،2019)؛ (رحیمی،2017)؛ |
70 | پیادهسازی کلاس درس | ( موربین،2016)؛ (دکرستون،2015)؛ (غونیم،2017)؛ (کاتالیست،2018)؛ (لی،2012)؛ |
71 | تسهیل یادگیری | (بنت،2011)؛ (بلک ویلیام،2018)؛ (کاتالیست،2018)؛ |
72 | فرصتهای بیشتر یادگیری | (لونی،2019)؛ (رحیمی،2017)؛(بلک،2004)؛ (هادسمن،2013)؛ (مکمیلان،2010)؛ (جانگ،2016)؛ |
73 | فرهنگ کلاس( تاکید برتلاش نه تاکید بر توانایی) | (دوک،2006)؛ (مکمیلان،2010)؛ |
74 | ارزیابی در هر زمان، هر مکان | (لونی،2019)؛ (موربین،2016)؛ |
75 | مشکلات یادگیری هم زمان موارد متعدد | ( چو،2014)؛ (پینگ،2007)؛ (وانگ،2006)؛ |
76 | مشکلات برونشخصی ( فرهنگی، اجتماعی، آموزشی) | (حجازی،2006)؛ ( دان مولونن،2009)؛ (بنت،2011)؛ (ویلیام لی،2004)؛ |
77 | فعالسازی شناختی | (دکرستون،2015)؛ (بکن،2015)؛ (بنت،2011)؛ (ویلیام،2019)؛ (تورس،2018)؛ (کاستلونزریز،2020)؛ (هسو،2011)؛ |
78 | عدالت آموزشی | (تقیزاده،1397)؛ |
79 | رسانههای اجتماعی | (پالفری،2010)؛ (پیتلر،2012) |
80 | عدم مقایسه بین دانشآموزان | (مکمیلان،2010)؛ |
تعیین اولویت و ضریب اهمیت شاخصها با استفاده از روش آنتروپی شانون
پس از استخراج و دستهبندی مفاهیم و شاخصهای مربوط به ارزیابی تکوینی دیجیتال، گام بعدی تعیین میزان اهمیت و اولویت هریک از این شاخصها بود. برای این منظور، از روش کمی آنتروپی شانون بهره گرفته شد. این روش به محققان کمک کرد تا بر اساس شواهد موجود در پژوهشهای پیشین، وزن نسبی و ضریب اهمیت هر یک از شاخصها را مشخص نمایند.
در این پژوهش، با تحلیل مقالات انتخابشده و بررسی میزان پشتیبانی هر شاخص توسط منابع مختلف، وزن شاخصها محاسبه شد. سپس مجموع وزن شاخصها در هر بُعد بهعنوان وزن کل آن بُعد در نظر گرفته شده در نهایت، ضریب اهمیت نهایی هر شاخص در ستون آخر جدول 10 ارائه شد. به منظور مقایسه بهتر کلیه شاخص ها در یک جدول ارائه شد.
جدول 10. تعیین وزن شاخص های کشف شده و مقایسه فراوانی آنها
ردیف | شاخص | فراوانی از 76 مقاله | نرمال سازی |
| بار اطلاعاتی | ضریب اهمیت |
1 | جمعآوری شواهد یادگیری | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
2 | تصمیمگیریهای آموزشی/ زمان آموزش | 7 | 0.019231 | -0.017340 | 1.017340 | 0.01257 |
3 | توجه به نیازهای یادگیری یادگیرندگان | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
4 | شناسایی قوت و ضعفها | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
5 | نظارت بر تحقق انتظارات آموزشی و پرورشی | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
6 | هدایت مداوم یادگیری یادگیرندگان بر پایۀ تواناییهایشان | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
7 | اصلاح و بهبود روشهای آموزشی اعمالشده در کلاس | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
8 | کشف راهکارهای متناسب با رشد یادگیرنده | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
9 | ارائۀ بازخورد مناسب، در مورد فعالیتها و کوششها، خاص و مفصل، تشویق و انتقاد | 26 | 0.071429 | -0.043017 | 1.043017 | 0.01289 |
10 | آگاهی از چگونگی تشکیل ساختارهای ذهنی یادگیرنده | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
11 | پرورش تفکر انتقادی(رویکرد فناوری) | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
12 | انطباق روش/برنامه/ وسایل و منابع آموزشی با نیاز یادگیرنده | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
13 | کشف شکاف بین انتظارات آموزشی با دانش و فهم یادگیرنده | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
14 | توانمندسازی و ایجاد انگیزه / رشد ذهنی | 6 | 0.016484 | -0.015443 | 1.015443 | 0.01255 |
15 | کشف شکاف بین آموزش و فهم و مهارت | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
16 | آگاهی از پیشرفت یادگیری | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
17 | تبیین اهداف یادگیری و معیار موفقیت | 10 | 0.027473 | -0.022535 | 1.022535 | 0.01264 |
18 | فن معلمی | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
19 | به روزبودن شیوه های جدید آموزش و تجهیزات آموزشی | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
20 | ارزیابی تراکمی | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
21 | دریافت بازخورد | 8 | 0.021978 | -0.019147 | 1.019147 | 0.01259 |
22 | یادگیرندۀ خودکار/ خود تنظیمی | 7 | 0.019231 | -0.017340 | 1.017340 | 0.01257 |
23 | تمرین و تکلیف/ سوالات | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
24 | تلاش و پشتکار | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
25 | ارزیابی از خود | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
26 | ارزیابی از همتایان | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
27 | بحثهای کلاسی | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
28 | شوق یادگیری / اعتقاد به موفقیت | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
29 | انگیزۀ ذاتی | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
30 | استراتژی یادگیری عمیق / آگاهی از یادگیری | 7 | 0.019231 | -0.017340 | 1.017340 | 0.01257 |
31 | افزایش رشد ذهنی | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
32 | نگرش به محیط کلاس | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
33 | اعتماد به نفس پایین/ استرس بالا | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
34 | کاهش فشار روانی دانشآموز | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
35 | تابآوری | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
36 | معنای تحصیل | 13 | 0.035714 | -0.027157 | 1.027157 | 0.01269 |
37 | بکارگیری استراتژی یادگیری عمیق | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
38 | درک شکست به عنوان بخشیاز فرآیند یادگیری | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
39 | مهارت در انتخاب برنامه و نرمافزار | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
40 | زندگی در دنیای دیجیتال | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
41 | مسئولیتپذیری | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
42 | برنامۀ درسی | 8 | 0.021978 | -0.019147 | 1.019147 | 0.01259 |
43 | مواد آموزشی | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
44 | رسانه | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
45 | روشهای تدریس | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
46 | فرآیند ارزشیابی پیشرفت تحصیلی | 11 | 0.030220 | -0.024131 | 1.024131 | 0.01266 |
47 | تفسیر ارزیابی تکوینی و جمعبندی | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
48 | به اشتراکگذاری | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
49 | روایی ارزیابی | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
50 | دسترسی به محتوای برخطودرزمانهای مختلف | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
51 | ابزار فناوری اطلاعات / بومیان دیجیتال | 9 | 0.024725 | -0.020876 | 1.020876 | 0.01261 |
52 | امنیت / ایمنی کودکان | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
53 | سواد دیجیتال / صلاحیت دیجیتال | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
54 | رویکرد آموزشی/ پیشرفت و انگیزه | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
55 | محیطهای یادگیری مجازی (معماری) | 13 | 0.035714 | -0.027157 | 1.027157 | 0.01269 |
56 | تحلیل یادگیری / داشبورد دادهها | 9 | 0.024725 | -0.020876 | 1.020876 | 0.01261 |
57 | سیستم تدریس خصوصی هوشمند | 11 | 0.030220 | -0.024131 | 1.024131 | 0.01266 |
58 | بازیها (گیم فیکیشن) | 7 | 0.019231 | -0.017340 | 1.017340 | 0.01257 |
59 | ابزارهای دیجیتال | 13 | 0.035714 | -0.027157 | 1.027157 | 0.01269 |
60 | سیستمهای مدیریت محتوا / داده کاوی | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
61 | مدیریت فناوری اطلاعات | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
62 | گنجاندن اقلام جدید/ سازههایی که قبلا قابل ارزیابی نبودند. | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
63 | تعاملات برخط | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
64 | مشاهدۀسطحیادگیری / نمایش پیشرفت تحصیلی | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
65 | مشارکت فعال فراگیران / تعامل اجتماعی | 6 | 0.016484 | -0.015443 | 1.015443 | 0.01255 |
66 | تهدیدها(کمبود وقت و منابع جو اعتماد و انگیزه) | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
67 | عدم پیچیدگی محیط دیجیتال | 6 | 0.016484 | -0.015443 | 1.015443 | 0.01255 |
68 | فرآیند بازخورد خودکار دیجیتال / بازخورد برخط | 18 | 0.049451 | -0.033930 | 1.033930 | 0.01278 |
69 | دسترسی دانشآموزان معلول | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
70 | پیادهسازی کلاس درس | 5 | 0.013736 | -0.013440 | 1.013440 | 0.01252 |
71 | تسهیل یادگیری | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
72 | فرصتهای بیشتر یادگیری | 6 | 0.016484 | -0.015443 | 1.015443 | 0.01255 |
73 | فرهنگکلاس( تاکیدبرتلاش نهتاکید بر توانایی) | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
74 | ارزیابی در هر زمان، هر مکان | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
75 | مشکلات یادگیری همزمان موارد متعدد | 3 | 0.008242 | -0.009025 | 1.009025 | 0.01247 |
76 | مشکلات برونشخصی ( فرهنگی، اجتماعی، آموزشی) | 4 | 0.010989 | -0.011312 | 1.011312 | 0.01250 |
77 | فعالسازی شناختی | 7 | 0.019231 | -0.017340 | 1.017340 | 0.01257 |
78 | عدالت آموزشی | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
79 | رسانههای اجتماعی | 2 | 0.005495 | -0.006525 | 1.006525 | 0.01244 |
80 | عدم مقایسه بین دانشآموزان | 1 | 0.002747 | -0.003697 | 1.003697 | 0.01240 |
در این پژوهش، با استفاده از روش آنتروپی شانون، میزان پراکندگی دادهها و تأکید منابع مختلف بر هر شاخص اندازهگیری شد و بر اساس آن، شاخصها اولویتبندی شدهاند. خروجی این تحلیل در قالب جدول 11 ارائه شده است. در این جدول، شاخصها بر اساس درجۀ اهمیت و میزان تأثیرگذاری آنها در موفقیت ارزیابی تکوینی دیجیتال مرتب شدهاند، بهطوری که شاخصهای با بالاترین اولویت در صدر جدول قرار گرفتهاند.
جدول 11. درجه اهمیت و اولویت بندی شاخصها
شاخصها | فراوانی | نرمال | محاسبه Ln | آنتروپی | درجه انحراف | وزن | رتبه |
ارائۀ بازخورد مناسب،در مورد فعالیتها و... | 26 | 0.0714 | -2.6391 | -0.0430 | 1.0430 | 0.0129 | 1 |
فرآیند بازخورد خودکار دیجیتال / برخط | 18 | 0.0495 | -3.0068 | -0.0339 | 1.0339 | 0.0128 | 2 |
معنای تحصیل | 13 | 0.0357 | -3.3322 | -0.0272 | 1.0272 | 0.0127 | 3 |
محیطهای یادگیری مجازی (معماری) | 13 | 0.0357 | -3.3322 | -0.0272 | 1.0272 | 0.0127 | 3 |
ابزارهای دیجیتال | 13 | 0.0357 | -3.3322 | -0.0272 | 1.0272 | 0.0127 | 3 |
فرآیند ارزشیابی پیشرفت تحصیلی | 11 | 0.0302 | -3.4993 | -0.0241 | 1.0241 | 0.0127 | 3 |
سیستم تدریس خصوصی هوشمند | 11 | 0.0302 | -3.4993 | -0.0241 | 1.0241 | 0.0127 | 3 |
تبیین اهداف یادگیری و معیار موفقیت | 10 | 0.0275 | -3.5946 | -0.0225 | 1.0225 | 0.0126 | 4 |
ابزار فناوری اطلاعات / بومیان دیجیتال | 9 | 0.0247 | -3.6999 | -0.0209 | 1.0209 | 0.0126 | 4 |
تحلیل یادگیری / داشبورد دادهها | 9 | 0.0247 | -3.6999 | -0.0209 | 1.0209 | 0.0126 | 4 |
دریافت بازخورد | 8 | 0.0220 | -3.8177 | -0.0191 | 1.0191 | 0.0126 | 4 |
برنامۀ درسی | 8 | 0.0220 | -3.8177 | -0.0191 | 1.0191 | 0.0126 | 4 |
تصمیمگیریهای آموزشی/ زمان آموزش | 7 | 0.0192 | -3.9512 | -0.0173 | 1.0173 | 0.0126 | 4 |
یادگیرندۀ خودکار/ خودتنظیمی | 7 | 0.0192 | -3.9512 | -0.0173 | 1.0173 | 0.0126 | 4 |
استراتژی یادگیری عمیق / آگاهی از یادگیری | 7 | 0.0192 | -3.9512 | -0.0173 | 1.0173 | 0.0126 | 4 |
بازیها (گیم فیکیشن) | 7 | 0.0192 | -3.9512 | -0.0173 | 1.0173 | 0.0126 | 4 |
فعالسازی شناختی | 7 | 0.0192 | -3.9512 | -0.0173 | 1.0173 | 0.0126 | 4 |
توانمندسازی و ایجاد انگیزه / رشد ذهنی | 6 | 0.0165 | -4.1054 | -0.0154 | 1.0154 | 0.0125 | 5 |
مشارکت فعال فراگیران/ تعامل اجتماعی | 6 | 0.0165 | -4.1054 | -0.0154 | 1.0154 | 0.0125 | 5 |
عدم پیچیدگی محیط دیجیتال | 6 | 0.0165 | -4.1054 | -0.0154 | 1.0154 | 0.0125 | 5 |
فرصتهای بیشتر یادگیری | 6 | 0.0165 | -4.1054 | -0.0154 | 1.0154 | 0.0125 | 5 |
جمعآوری شواهد یادگیری | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
تلاش و پشتکار | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
ارزیابی از همتایان | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
بکارگیری استراتژی یادگیری عمیق | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
سواد دیجیتال / صلاحیت دیجیتال | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
مشاهدۀ سطح یادگیری / نمایش پیشرفت تحصیلی | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
پیادهسازی کلاس درس | 5 | 0.0137 | -4.2877 | -0.0134 | 1.0134 | 0.0125 | 5 |
نگرش به محیط کلاس | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
به اشتراکگذاری | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
امنیت / ایمنی کودکان | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
رویکرد آموزشی/ پیشرفت و انگیزه | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
سیستمهای مدیریت محتوا / داده کاوی | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
تعاملات برخط | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
مشکلات برونشخصی (فرهنگی، اجتماعی، آموزشی) | 4 | 0.0110 | -4.5109 | -0.0113 | 1.0113 | 0.0125 | 5 |
توجه به نیازهای یادگیری یادگیرندگان | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
پرورش تفکر انتقادی(رویکرد فناوری) | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
به روزبودن در شیوههای جدید آموزش و تجهیزات آموزشی | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
ارزیابی از خود | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
بحثهای کلاسی | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
انگیزۀ ذاتی | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
افزایش رشد ذهنی | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
تابآوری | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
مهارت در انتخاب برنامه و نرمافزار | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
زندگی در دنیای دیجیتال | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
مسئولیتپذیری | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
رسانه | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
روشهای تدریس | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
تفسیر ارزیابی تکوینی و جمعبندی | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
دسترسی به محتوا برخط و در زمانهای مختلف | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
مدیریت فناوری اطلاعات | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
تسهیل یادگیری | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
مشکلات یادگیری همزمان موارد متعدد | 3 | 0.0082 | -4.7985 | -0.0090 | 1.0090 | 0.0125 | 5 |
شناسایی قوت و ضعفها | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
هدایت مداوم یادگیری یادگیرندگان بر پایۀ تواناییهایشان | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
کشف شکاف بین آموزش و فهم و مهارت | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
آگاهی از پیشرفت یادگیری | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
ارزیابی تراکمی | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
شوق یادگیری / اعتقاد به موفقیت | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
روایی ارزیابی | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
گنجاندن اقلام جدید/ سازههایی که قبلا قابل ارزیابی نبودند | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
دسترسی دانشآموزان معلول | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
فرهنگ کلاس( تاکید برتلاش نه تاکید بر توانایی) | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
ارزیابی در هر زمان، هر مکان | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
رسانههای اجتماعی | 2 | 0.0055 | -5.2040 | -0.0065 | 1.0065 | 0.0124 | 6 |
نظارت بر تحقق انتظارات آموزشی و پرورشی | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
اصلاح و بهبود روشهای آموزشی اعمال شده در کلاس | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
کشف راهکارهای متناسب با رشد یادگیرنده | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
آگاهی از چگونگی تشکیل ساختارهای ذهنی یادگیرنده | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
انطباق روش/برنامه/ وسایل و منابع آموزشی با نیاز یادگیرنده | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
کشف شکاف بین انتظارات آموزشی با دانش و فهم یادگیرنده | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
فن معلمی | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
تمرین و تکلیف/ سوالات | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
اعتماد به نفس پایین/ استرس بالا | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
کاهش فشار روانی دانشآموز | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
درک شکست به عنوان بخشی مفید از فرآیند یادگیری | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
مواد آموزشی | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
تهدیدها ( کمبود وقت و منابع جو اعتماد و انگیزه) | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
عدالت آموزشی | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
عدم مقایسه بین دانشآموزان | 1 | 0.0027 | -5.8972 | -0.0037 | 1.0037 | 0.0124 | 6 |
همانطور که در جدول 11 مشاهده شد با دقت در ستونهای مربوط به "فراوانی" و "رتبه" درجۀ اهمیت و اولویتبندی شاخصها مشخص گردید و بر این اساس بیشترین فراوانی به "ارائۀ بازخورد مناسب از طرف معلم به دانشآموز" اختصاص دارد. این مقدار برابر با 26 تکرار است که با محاسبات آنتروپی شانون رتبۀ اول را در عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال از آن خود کرده است. "فرآیند بازخورد خودکار دیجیتال " با 18 فراوانی در رتبۀ دوم عوامل موثر برموفقیت ارزیابی تکوینی دیجیتال قرار گرفت.
شاخصهای "معنای تحصیل، محیطهای یادگیری مجازی (معماری) و ابزارهای دیجیتال" با تعداد 13 فراوانی و شاخصهای " فرآیند ارزشیابی پیشرفت تحصیلی و سیستم تدریس خصوصی هوشمند" با 11 فراوانی در رتبۀ سوم عوامل موثر برموفقیت ارزیابی تکوینی دیجیتال قرار گرفت. همچنین بر اساس یافتههای ارائهشده در جداول فوق، شاخصهای "تبیین اهداف یادگیری و معیار موفقیت، ابزار فناوری اطلاعات / بومیان دیجیتال، تحلیل یادگیری / داشبورد داده ها، دریافت بازخورد، برنامۀ درسی، تصمیمگیریهای آموزشی، یادگیرندۀ خودکار/ خودتنظیمی، استراتژی یادگیری عمیق / آگاهی از یادگیری، بازیها (گیم فیکیشن)، فعالسازی شناختی" با فراوانی10 تا 7مورد توانستهاند رتبۀ چهارم عوامل موثر برموفقیت ارزیابی تکوینی دیجیتال را به خود اختصاص دهند.
در ادامه بررسیهای بهعملآمده از شاخصهای موثر بر موفقیت ارزیابی تکوینی دیجیتال مشاهده گشت شاخصهای "توانمندسازی و ایجاد انگیزه / رشد ذهنی ، مشارکت فعال فراگیران/ تعامل اجتماعی، عدم پیچیدگی محیط دیجیتال، فرصتهای بیشتریادگیری، جمعآوری شواهد یادگیری، تلاش و پشتکار، ارزیابی از همتایان، بکارگیری استراتژی یادگیری عمیق، سواد دیجیتال / صلاحیت دیجیتال، مشاهدۀ سطح یادگیری/ نمایش پیشرفت تحصیلی، پیادهسازی کلاس درس، نگرش به محیط کلاس، به اشتراکگذاری، امنیت و ایمنی کودکان، رویکرد آموزشی/ پیشرفت و انگیزه، سیستمهای مدیریت محتوا / داده کاوی، تعاملات برخط، مشکلات برون شخصی (فرهنگی، اجتماعی، آموزشی)، توجه به نیازهای یادگیری یادگیرندگان، پرورش تفکر انتقادی (رویکرد فناوری)، به روزبودن شیوههای جدید آموزش و تجهیزات آموزشی، ارزیابی از خود، بحثهای کلاسی، انگیزۀ ذاتی، افزایش رشد ذهنی، تابآوری، مهارت در انتخاب برنامه و نرمافزار، زندگی در دنیای دیجیتال، مسئولیتپذیری، رسانه، روشهای تدریس، تفسیر ارزیابی تکوینی و جمعبندی، دسترسی به محتوا برخط و در زمانهای مختلف، مدیریت فناوری اطلاعات، تسهیل یادگیری و مشکلات یادگیری همزمان موارد متعدد" با فراوانی 6 تا 3 مورد در رتبۀپنجم قرار گرفت.
سایر شاخصهای کشفشده که عبارتند از "شناسایی قوت و ضعفها، هدایت مداوم یادگیری یادگیرندگان بر پایۀ تواناییهایشان، کشف شکاف بین آموزش و فهم و مهارت، آگاهی از پیشرفت یادگیری، ارزیابی تراکمی، شوق یادگیری / اعتقاد به موفقیت، روایی ارزیابی، گنجاندن اقلام جدید/ سازههایی که قبلا قابل ارزیابی نبودند، دسترسی دانشآموزان معلول، فرهنگ کلاس (تاکید برتلاش نه تاکید بر توانایی)، ارزیابی در هر زمان، هر مکان، رسانههای اجتماعی، پیگیری اجرای انتظارات آموزشی و پرورشی، اصلاح و ارتقاء روشهای تدریس بهکاررفته در کلاس و یافتن راهکارهای مناسب برای رشد و توسعه یادگیرندگان، آگاهی از چگونگی تشکیل ساختارهای ذهنی یادگیرنده، انطباق روش/برنامه/ وسایل و منابع آموزشی با نیاز یادگیرنده، کشف شکاف بین انتظارات آموزشی با دانش و فهم یادگیرنده، فن معلمی، تمرین و تکلیف/ سوالات، اعتماد به نفس پایین/ استرس بالا، کاهش فشار روانی دانش آموز، درک شکست به عنوان بخشی مفید از فرآیند یادگیری، مواد آموزشی، تهدیدها (کمبود وقت و منابع جو اعتماد و انگیزه)، عدالت آموزشی و عدم مقایسه بین دانشآموزان" با کمترین فراوانی یعنی 1 یا 2 مورد در رتبۀ ششم عوامل موثر برموفقیت ارزیابی تکوینی دیجیتال قرار گرفتهاند.
از سوی دیگر با مقایسۀ مجموع فراوانی هریک از ابعاد با یکدیگر شامل "معلم، دانشآموز، محتوای آموزشی، زیرساخت ابزار دیجیتال و محیط" نتیجۀ دیگری حاصل گشت. این نتیجه در جدول 12 نشان داده شده است و حاکی از آن است که بیشترین تمرکز بر روی عنصر "دانشآموز" است و این امر تاکیدی بر اهداف آموزشی و یادگیری میباشد. البته همانطور که در جدول 12 مشخص شده است توازن مناسبی بین عناصر "معلم با فراوانی 80، دانشآموز با فراوانی 84، زیرساخت ابزار دیجیتال با فراوانی 82 و محیط با فراوانی 80" برقرار است. در این میان عنصر "محتوای آموزشی" با فراوانی 38 تقریبا به میزان نصف سایر عناصر تاثیر خود را نشان میدهد.
جدول12. مقایسۀ فراوانی ابعاد موثر بر موفقیت ارزیابی تکوینی دیجیتال
محیط | زیرساخت و ابراز دیجیتال | محتوای آموزشی | دانش آموز | معلم | ابعاد موثر |
80 | 82 | 38 | 84 | 80 | فراوانیها |
5. بحث و نتیجه گیری
از یافتههای بهدستآمده مشخص گردید که عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال به طورکلی شامل دو مقولۀ اصلی انسانی و فنی است. در مقولۀ انسانی ابعاد معلم، دانشآموز و در مقولۀ فنی، ابعاد محتوای آموزشی، زیرساخت تجهیزات دیجیتال و محیط قرار میگیرند. تعداد شاخصهای موثر بر موفقیت ارزیابی تکوینی دیجیتال در بعد معلم 20 مورد و در بعد دانشآموز تعداد 21 شاخص یافت شده است. در مقولۀ فنی، بعد محتوای آموزشی 9 شاخص موثر و در بعد زیرساخت ابزار دیجیتال 11 شاخص و نهایتاً در بعد محیط 19 شاخص موثر به دست آمده است. بر اساس اسناد و منابع موجود، ازمجموع 80 شاخص ذکرشده، بیشترین فراوانی به "ارائۀ بازخورد مناسب از طرف معلم به دانشآموز" اختصاص دارد. این مقدار برابر با 26 تکرار است که با محاسبات آنتروپی شانون رتبۀ اول را در عوامل موثر بر موفقیت ارزیابی تکوینی دیجیتال از آن خود کرده است.
در میان عوامل مؤثر بر موفقیت ارزیابی تکوینی در چارچوب بهرهگیری از ابزارهای دیجیتال، بیشترین تأکید بر ارائۀ بازخورد مؤثر (ویلسون،2016)؛ (رینولز،2020)؛ (ریز،2011)؛ (مایر،2016)؛ (هتی،2007)؛ (کاوی،2013)؛ (ویلیام،2016)، بهویژه در رابطه با فعالیتها، تلاشهای یادگیرندگان و بازخورد آنی و برخط بوده است. این یافته نشان دادند که طراحی و استقرار ساختارها و فرآیندهایی که از محیطهای یادگیری مجازی پشتیبانی میکنند، در صورتی که با اولویتهای شناساییشده در این پژوهش همراستا باشند، میتوانند نقش مهمی در تحقق اهداف یادگیری ایفا کنند.
از دیگر نتایج قابل توجه حاصل از تحلیل کمی در این پژوهش، کمتوجهی به عوامل فردی مؤثر بر یادگیری در مطالعات پیشین است مانند شاخص اعتماد به نفس پایین و استرس بالا در پژوهش (تقوی نیا،2017)؛ کاهش فشار روانی دانشآموز (کلیمووا،2019)؛عدالت آموزشی (تقیزاده،1397)؛ عدم مقایسه بین دانشآموزان (مکمیلان،2010)؛ با توجه به رتبهبندی شاخصهای مؤثر بر ارزیابی تکوینی دیجیتال که در این تحقیق ارائه شدند، پیشنهاد میشود در طراحی مدلهای یادگیری الکترونیکی، توجه بیشتری به مؤلفههای فردی یادگیرندگان معطوف گردد. این رویکرد میتواند زمینهساز ارتقاء کیفیت و اثربخشی ارزیابیهای تکوینی در بستر آموزش الکترونیکی شده و بستر مناسبی را برای انجام پژوهشهای آینده فراهم آورد.
منـابـع
Abasi, H. (2023). Solutions to improve formative assessment in e-learning environments. New Approaches in Educational Administration. doi:10.30495/JEDU.2023.28524.5723
Aldon, G. e. (2015). Which support technology can give to mathematics formative assessment? The FaSMEd project in Italy and France..Quaderni di Ricerca in Didattica (Mathematics), 25, 631-641.
Alizadeh, S. e. (2016). Analyzing the quality of classroom assessment of teachers; A mixed research study. Quarterly journal of research in school and virtual learning, 17(5), 63-84. [in perseian].
Baker, R. e. (2011). Detecting learning moment by moment. International Journal of Artificial Intelligence in Education, 21(1-2), 5-25.
Beesley, A. e. (2018). Enhancing formative assessment practice and encouraging middle school mathematics engagement and persistence. School Science & Mathematics, 118(1), 4-16.
Bennet, R. (2011). Formative assessment acritical review assessment in Education. principles,policy and practice, 18(1), 5-25.
Bicer, A. e. (2017). Integrated STEM assessment model. EURASIA Journal of Mathematics Science and Technology Education, 13(7), 3959-3968.
Black, P. W. (2004). Teachers developing assessment for learning: impact on student achievement. Assessment in Education, 11(1), 49-65.
Black, P. W. (2018). Classroom assessment and pedagogy. Assessment in Education: principles, policy, & practice, 25(6), 551-575.
Burkhardt, H. S. (2019). Formative assessment in mathematics. In H. B. Andrade (Ed.), Handbook of formative assessment in the disciplines (pp. 35-67). New York: Routledge.
Burns, M. e. (2010). The effects of technology-enhanced formative evaluation on student performance on state accountability math tests. Psychology in the Schools, 47(6), 582-591.
Catalano, A. (2013). Patterns of graduate students’information seeking behavior:a meta-synthesis of the literature. Journal of Documentation, 69(2), 243-274.
Cherner, T. S. (2017). Reconceptualizing TPACK to meet the needs of twenty-first-century education. The New Educator, 13(4), 329-349.
Clark, R. K. (2006). Why minimal guidance during instruction does not work: An analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching. Educational Psychologist, 41(2).
Cowie, B. e. (2013). Expanding notions of assessment for learning inside science and technology primary classrooms. Rotterdam, The Netherlands: Sense.
Crompton, H. e. (2019). Mobile learning and student cognition: A systematic review of PK-12 research using Bloom’s Taxonomy. British Journal of Educational Technology, 50(2), 684–701.
Decristan, J. e. (2015). Embedded formative assessment and classroom process quality: How do they interact in promoting science understanding? American Educational Research Journal, 52(6), 1133-1159.
Dolin J., B. P. (2018). Exploring relations between formative and summative assessment. Transforming assessment through an interplay between practice, research and policy. In E. R. Dolin J. (Ed.), Contributions from science education research (pp. 53-80). Cham , Switzerland: Springer.
Dolin, J. E. (Ed.). (2018). Transforming assessment through an interplay between practice, research and policy. Contributions from science education research. Switzerland: Springer.
Dukuzumuremyi, S. S. (2018). Interactions between pupils and their teachers in collaborative and technologyenhanced learning settings in the inclusive classroom. Teaching and Teacher Education, 76, 165-174.
Dunn, K. M. (2009). A critical review of research on formative assessment: The limited scientific evidence of the impact of formative assessment in education. Practical Assessment, Research, & Evaluation, 14(7), 1-11.
Duschl, R. (2019). Learning progressions: framing and designing coherent sequences for STEM Education. Disciplinary and Interdisciplinary Science Education Research, 1(4). Retrieved February 4, 2020
European Commission. (2016). FaSMEd summary report. Retrieved February 4, 2020, from https://cordis.europa.eu/docs/results/612/612337/final1-finalfasmed- summary-report-final
Faber, J. e. (2017). The effects of a digital formative assessment tool on mathematics achievement and student motivation: Results of a randomized experiment. Computers & Education, 106, 83-96.
Feldman, A., & Capobianco, B. M. (2008). Teacher learning of technology enhanced formative assessment. Journal of Science Education Technology, 17, 82-99.
Finlayson, O. M. (2017). Building teacher confidence in inquiry and assessment: Experiences from a Pan- European Collaboration. In A companion to research in teacher education (M. Peters, B. Cowie, I. Menter ed., pp. 825-838). Singapore: Springer.
Gail Morreim, J. (2016). How Digital Formative Assessment Increases student Achievment and Motivation. Saint Paul.Minnesota: Hamline University.
Geer, R. e. (2017). Emerging pedagogies for the use of iPads in schools. British Journal of Educational Technology, 48(2), 490-498.
Griffin, P. (2015). Assessment and teaching of 21st century skills: Methods and approaches. (E. Care, Ed.) Dordrecht: Springer.
Griffin, P. M. (2012). Assessment and teaching of 21st century skills. (E. Care, Ed.) Dordrecht: Springer.
Harris, J. e. (2017). TPCK/TPACK research and development: Past, present, and future directions. Australasian Journal of Educational Technology, 33(3), i-viii.
Haßler, B. e. (2016). Tablet use in schools: A critical review of the evidence for learning outcomes. Journal of Computer Assisted Learning, 32(2), 139-156.
Hattie, J. T. (2007). The power of feedback. Review of Educational Research, 77(1), 81-112.
Hayward, L. (2015). Assessment is learning: the preposition vanishes. Assessment in Education: principles, policy & practice, 22(1), 27-43.
Hickey, D. e. (n.d.). Assessment as learning: enhancing discourse understanding, and achievement in innovative science curricula. Journal of Research in Science Teaching, 49(10), 1240-1270.
Hmelo-Silver, C. (2004). Problem-based learning: What and how do students learn? Educational Psychology Review, 16(3), 235-266.
Hondrich, A. e. (2018). Formative assessment and intrinsic motivation: The mediating role of perceived competence. eitschrift für Erziehungswissenschaft, 21, 717-734.
Hooker, T. (2017). Transforming teachers’ formative assessment practices through ePortfolios. eaching and Teacher Education, 67, 440-453.
Jennings, L. (2010). Inquiry-based learning. CA, Encyclopedia of Educational Reform and Dissent: SAGE.
Jönsson, A. (2020). Definitions of formative assessment need to make a distinction between a psychometric understanding of assessment and “evaluate judgements.”. Frontiers In Education, 5(2), 1-4.
Khanifar, H. e. (2015). Designing an entrepreneurial process model in Iran's food industry. Entrepreneurship Development, 9th, , 219-237. [in perseian].
Khodadahosseini, S. (2013). Designing an entrepreneurial branding process model in small and medium businesses in the food industry. Brand Management Quarterly, 1, 13-45 [in perseian].
Kimbell, R. (2012). Evolving project e-scape for national assessment. International Journal of Technology and Design Education, 22(2), 135-155.
Kimbell, R. a. (2007). E-scape portfolio assessment: Phase 2 report. Goldsmiths. University of London.
Kingston, N. N. (2011). Formative assessment: A meta-analysis and call for research. Educational Measurement: Issues and Practice, 30(4), 28-37.
Kippers, W. e. (2018). Teachers’ views on the use of assessment for learning and data-based decision making in classroom practice. Teaching and Teacher Education, 75, 199-213.
Kirschner, P. D. (2017). The myths of the digital natives and the multitasker. Teaching and Teacher Education, 67, 135-142.
Klimova, B. (2019). E learning as valuable caregivers’ support for people with dementia – A systematic review. BMC Health Services Research, 781.
Knowles, T. K. (2016). A conceptual framework for integrated STEM education. International Journal of STEM Education, 3(11), 1-11.
Koehler, M. J. (2009). What is technological pedagogical content knowledge? Contemporary Issues in Technology and Teacher Education, 9(1), 60-70.
Laal, M. (2013). Collaborative learning; elements. Social and Behavioral Sciences, 83, 814-818.
Lai, C. (2019). Trends of mobile learning: A review of the top 100 highly cited papers. British Journal of Educational Technology.
Larson, K. T. (2008). Continuous Feedback Pedagogical Patterns. In PLoP’08 Proceedings of the 15th Conference on Pattern Languages of Programs. New York: ACM.
Lashkarblouki, e. a. (2011). Designing a sustainable strategy process model using a hybrid approach. Strategic Management Thought, 6, 121-151. [in perseian].
Lee, H. F. (2012). Factors that affect science and mathematics teachers’ initial implementation of technology-enhanced formative assessment using a classroom response system. Journal of Science Education Technology, 21, 523-539.
Looney, J. (2019). Digital formative assessment: A review of the literature.
Lysaght, Z. O. (2017). Scaling up, writ small: using an assessment for learning audit instrument to stimulate site-based professional development, one school at a time. Assessment in Education: Principles, Policy & Practice, 24(2), 271-289.
Maier, W. W. (2016). Effects of a computer-assisted formative assessment intervention based on multiple-tier diagnostic items and different feedback types. Computers & Education, 95, 85-98.
Marjan Faber, J. (2020). Effect of digital formative assessment tools on teaching quality and student achievement. PhD Thesis, University of Twente.
Martin, M. e. (2017). TIMSS 2019 Assessment Design. In I. M. Martin (Ed.), TIMSS 2019 Assessment Frameworks (pp. 79-91).
McMillan, J; Cauley, K. (2010). Formative assessment techniques to support student motivation and achievement. Educational strategies, 83(1), 1-6.
Mishra, P. K. (2006). Technological pedagogical content knowledge: A framework for integrating technology in teacher knowledge. Teachers College Record, 108(6), 1017-1054.
Molenaar, I. e. (2019). What can moment-by-moment learning curves tell about students’ selfregulated learning? Learning and Instruction. Retrieved February 4, 2020
Ng, W. (2012). Empowering scientific literacy through digital literacy and multiliteracies. In Hauppauge. NY: Nova Science Publishers.
Nicol, D., & Macfarlane, D. (2006). Formative assessment and self-regulated learning; A model and seven principles of good feedback practice. Studies in Higher Education, 31(2), 199–218.
Nikou, S. c. (2018). Mobile-based assessment: A literature review of publications in major refered journals from 2009 to 2018. Computers & Education, 125, 101-119.
Nikou, S. E. (2019). Factors that influence behavioral intention to use mobile-based assessment: A STEM teacher’s perspective. British Journal of Educational Technology, 50(2), 587-600.
O’Leary, M. e. (2018). The state of the art in digital technology based assessment. European Journal of Education, 53(2), 160-175.
Qaltash, A. e. (2014). Pathology of the descriptive evaluation model in order to provide a suitable model in the elementary school. Quarterly Journal of Research in Educational and Virtual Learning, 10(3), 7-16. [in perseian].
Rahimi, S. (2017). Review of computer-based assessment for learning in elementary and secondary education. Journal of Computer Assisted Learning, 33, 1-19.
Reis, S. (2011). The Effects Differentiated Instruction and Enrichment Pedagogy on Reading Achievement in Five Elementary Schools. American Educational Research Journal, 48(2), 462-501.
Reynolds, Katherine;et al. (2020). Digital Formative Assessment of Transversal Skills STEM. Dublin City University: ISBN: 978-1-911669-05-0.
Sandelowski, M., & Barroso, J. (2006). Handbook for Synthesizing Qualitative Research: Springer Publishing Company.
Shannon, C. (1948). A Mathematical Theory of Communication. The Bell System 27(4): 623-656.
Shavelson, R. e. (2008). On the impact of curriculum-embedded formative assessment on learning: A collaboration between curriculum and assessment developer. Applied Measurement in Education, 21(14), 295-314.
Shute, V. L. (2016). Advances in the science of assessment. Educational Assessment, 21(1), 34-59.
Spector, J.M., et.al. (2016). Technology enhanced formative assessment for 21st century learning. Educational Technology and Society, 19(3), 58-71.
Stobart, G. (2006). The validity of formative assessment (Assessment and Learning ed.). (J. Garder, Ed.) CA: SAGE Publications Ltd.
Szendey, olivia;et al. (2020). Virtual Learning Environments and Digital tools impementing Formative Assessment and Transversal Slills in STEM. Dublin City University: ISBN: 978-1-911669-14-2.
Taghi zadeh, A., & ed al. (2018). Identifying Capabilities of Formative Assessment in Virtual Learning Environments. Quarterly Journal of Research in School and Virtual Learning, 1(6), 43-62. (In Persian).
Van De Ven, A. (1992). Suggestions for Studying Strategy Process: A Research Note. Strategic Management Journal, 13(S1), 169-188.
Vogelzang, J. A. (2017). Classroom action research on formative assessment in a context-based chemistry course. ducational Action Research, 25(1), 155-166.
Wiliam, D. (2016). The secret of effective feedback. Educational Leadership, 73(7), 10-15.
Wiliam, D. (2019). Why formative assessment is always both domain-general and domain-specific and what matters is the balance between the two. In R. B. H. Andrade, Handbook of formative assessment in the disciplines (pp. 243-264).
Wiliam, D; Thompson.M;. (2007). Integrating assessment with learning: What will it take to make it work? New York: In C.A. Dwyer(Ed.), The future of assessment: Shaping teaching and learning.
Zenisky, A. S. (2006). Innovative item formats in computer-based testing: In pursuit of improved construct representation. In S. Downing, & T. Haladyna (Ed.), Handbook of test development (pp. 329-348). New York, NY: Routledge.
[1] تاریخ دریافت: 05/12/1403؛ تاریخ پذیرش: 20/02/1404؛ تاریخ انتشار آنلاین: 10/06/1404
ناشر: دانشگاه آزاد اسلامی واحد قم نوع مقاله: پژوهشی © نویسندگان.
Doi: 10.71522/jiem.2025.2191206295
[2] . Measurement
[3] . Testing
[4] . Evaluation
[5] . Assessment
[6] . Formative Assessment
[7] . Digital Formative Assessment