مروری اجمالی بر یادگیری ماشین: فرآیند، الگوریتم ها، نحوه انتخاب الگوریتم، کاربردها، مزایا و چالش های آن
محورهای موضوعی : مدیریت
امل سیاح
1
,
امیر عباس شجاعی
2
*
,
علی علی اکبری
3
,
مهدی حاجی رضایی
4
,
حمید توحیدی
5
1 - دانشجوی دکتری مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
2 - دانشیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران (نویسنده مستول).
3 - استادیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
4 - استادیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
5 - دانشیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
کلید واژه: یادگیری ماشین, هوش مصنوعی, فرایند یادگیری ماشین, الگوریتم های یادگیری ماشین,
چکیده مقاله :
الگوریتمهای یادگیری ماشینی مدلهای محاسباتی هستند که به رایانهها اجازه میدهند الگوها را بفهمند و بدون برنامهنویسی صریح بر اساس دادهها، پیشبینی یا تصمیم گیری کنند. این الگوریتمها شالوده هوش مصنوعی مدرن را تشکیل میدهند و در کاربردهای مختلفی از جمله تشخیص تصویر و گفتار، پردازش زبان طبیعی، سیستمهای توصیه، تشخیص تقلب، خودروهای خودران و غیره استفاده میشوند. این مطالعه با هدف مروری اجمالی بر یادگیری ماشین به ارائه یک نمای کلی از توسعه یادگیری ماشینی تا امروز می پردازد و سپس فرآیند یادگیری ماشین، الگوریتمهای مختلف آن، روش انتخاب الگوریتم ها را مورد بحث قرار می دهد. همچنین به کاربردها، چالشها و مزایای یادگیری ماشین اشاره می شود. به طور کلی، این مقاله قصد دارد به عنوان یک نقطه مرجع برای متخصصان دانشگاهی، صنعت و همچنین برای تصمیمگیرندگان در موقعیتهای مختلف دنیای واقعی و حوزههای کاربردی، مورد استفاده قرار گیرد. روش تحقیق حاضر مبتنی بر تجزیه و تحلیل کیفی است که در آن ادبیات مختلف براساس موضوع یادگیری ماشین مورد بررسی قرار گرفته است. نتایج نشان می دهد که یادگیری ماشین برای ایجاد تحول بزرگ در فناوری آماده است و یکی از سریعترین فناوریهایی است که تا امروز مورد استفاده بوده است و به طور مداوم در حال تکامل است، یادگیری ماشین یک فناوری با ریسک و بازده بالا می باشد.
Machine learning algorithms are computational models that allow computers to understand patterns and make predictions or decisions based on data without explicit programming. These algorithms form the foundation of modern artificial intelligence and are used in various applications such as image and speech recognition, natural language processing, recommender systems, fraud detection, and autonomous vehicles. This study aims to provide a brief overview of machine learning by discussing the development of machine learning to date and then examining the machine learning process, its various algorithms, and the method of selecting algorithms. It also addresses the applications, challenges, and benefits of machine learning. Overall, this paper intends to serve as a reference point for academic and industry professionals as well as for decision-makers in various real-world situations and application domains. The present research methodology is based on qualitative analysis in which various literature based on machine learning is reviewed. The results show that machine learning is poised to create a major technological revolution and is one of the fastest-growing technologies used to date, and it is constantly evolving. Machine learning is a high-risk, high-reward technology.
1. Ahmad, F.S.; Ali, L. A, (2020), “hybrid machine( learning framework to predict mortality in paralytic ileus patients using electronic health records (EHRs)”. J. Ambient Intell. Humaniz. Comput., 2020, 12(2), 3283-3293
2. Alzubi, J.A., Nayyar, A., & Kumar, A. (2019). Machine Learning from Theory to Algorithms: An Overview. Journal of Physics: Conference Series, 1142
3. A. L. Samuel. (1967). "Some Studies in Machine Learning Using the Game of Checkers. II—Recent Progress," in IBM Journal of Research and Development, vol. 11, no. 6, pp. 601-617, Nov. 1967, doi: 10.1147/rd.116.0601
4. A. M. Turing, I. (1950). “Computing machinery and intelligence”, Mind, Volume LIX, Issue 236, October 1950, Pages 433–460, https://doi.org/10.1093/mind/LIX.236.433
5. Banoula, Mayank. (2023). “Machine Learning Steps: A Complete Guide”, https://www.simplilearn.com/tutorials/machine-learning-tutorial/machine-learning-steps 6. Bennett, J., & Lanning, S. (2007). “The Netflix Prize”
7. Boukerche A, Wang J. (2020), “Machine learning-based trafc prediction models for intelligent transportation systems”. Comput Netw. 2020;181
8. Brown, T.B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D.M., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., & Amodei, D. (2020).” Language Models are Few-Shot Learners”. ArXiv, abs/2005.14165
9. B. Senthil Arasu, B. Jonath Backia Seelan, N. (2020), “Thamaraiselvan,A machine learning-based approach to enhancing social media marketing”,Computers & Electrical Engineering, Volume 86,2020, 106723,ISSN 0045-7906, https://doi.org/10.1016/j.compeleceng.2020.106723
10. Davenport, T. H. (2018). “The AI advantage: How to Put the Artificial Intelligence Revolution to Work”. Cambridge, MA: MIT Press
11. Dean, Jeffrey & Corrado, G.s & Monga, Rajat & Chen, Kai & Devin, Matthieu & Le, Quoc & Mao, Mark & Ranzato, Aurelio & Senior, Andrew & Tucker, Paul & Yang, Ke & Ng, Andrew. (2012). “Large Scale Distributed Deep Networks. Advances in neural information processing systems”
12. Devarapalli, Sri. (2022). “Language Translation using Machine Learning”
13. Devlin, J., Chang, M., Lee, K., & Toutanova, K. (2019). “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”. North American Chapter of the Association for Computational Linguistics
14. DeJong, G. (1981). “Generalizations Based on Explanations”. International Joint Conference on Artificial Intelligence
15. Feng-Hsiung Hsu. (1999). "IBM's Deep Blue Chess grandmaster chips," in IEEE Micro, vol. 19, no. 2, pp. 70-81, March-April 1999, doi: 10.1109/40.755469
16. Forbes.com. (2021). “AutoML 2.0: Is The Data Scientist Obsolete?”. URL: https://www.forbes.com/sites/cognitiveworld/2020/04/07/automl-20-is-the-data-scientist-obsolete/?sh=63b69def53c9. Accessed Oct 8, 2021
17. Gayhardt ,Lauryn. Yoshioka , Hiroshi. (2024). “How to select algorithms for Azure Machine Learning”, https://learn.microsoft.com/en-us/azure/machine-learning/how-to-select-algorithms?view=azureml-api-1
18. Geeksforgeeks, (2024), “Machine Learning Algorithms”, https://www.geeksforgeeks.org/machine-learning-algorithms/
19. Geeksforgeeks, (2024), “what is machine learning”, https://www.geeksforgeeks.org/machine-learning-algorithms/
20. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning (1sted.). MIT Press
21. Goodfellow, Ian & Pouget-Abadie, Jean & Mirza, Mehdi & Xu, Bing & Warde-Farley, David & Ozair, Sherjil & Courville, Aaron & Bengio, Y.. (2014). “Generative Adversarial Networks. Advances in Neural Information Processing Systems”. 3. 10.1145/3422622
22. Grace, K., Salvatier, J., Dafoe, A., Zhang, B., & Evans, O. (2019). “When will AI exceed human performance? Evidence from AI experts?” Journal of Artificial Intelligence Research, 62, 729-754
23. Hebb, D. O. (1949). “The organization of behavior; a neuropsychological theory. Wiley
24. J. Deng, W. Dong, R. Socher, L. -J. Li, Kai Li and Li Fei-Fei. (2009). "ImageNet: A large-scale hierarchical image database," 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, USA, 2009, pp. 248-255, doi: 10.1109/CVPR.2009.5206848
25. Khanzode, K. C. A. & Sarode, R. D. (2020). Advantages and disadvantages of artificial intelligence and machine learning: A literature review. Int. J. Libr. Inf. Sci. (IJLIS) 9, 30–36
26. Kharwal, Aman, (2023), “Here’s How to Choose Machine Learning Algorithms”, https://thecleverprogrammer.com/2023/09/28/heres-how-to-choose-machine-learning-algorithms/
27. Krizhevsky, Alex & Sutskever, Ilya & Hinton, Geoffrey. (2012). “ImageNet Classification with Deep Convolutional Neural Networks. Neural Information Processing Systems”. 25. 10.1145/3065386
28. Kulin, M., Kazaz, T., De Poorter, E., & Moerman, I. (2021). A Survey on Machine Learning-Based Performance Improvement of Wireless Networks: PHY, MAC and Network Layer. Electronics, 10(3), 318. https://doi.org/10.3390/electronics10030318
29. Learned-Miller, E. G.(2014). Introduction to supervised learning. I: Department of Computer Science, University of Massachusetts
30. Lev Craig. (2024). “What is machine learning? Guide, definition and examples”, https://www.techtarget.com/searchenterpriseai/definition/machine-learning-ML
31. Le, Quoc & Ranzato, Marc'Aurelio & Monga, Rajat & Devin, Matthieu & Chen, Kai & Corrado, G.s & Dean, Jeff & Ng, Andrew. (2011).” Building high-level features using large scale unsupervised learning”. Proceedings of ICML. 1
32. Leong, Lester . (2019). “Machine Learning Pipelines: Feature Engineering Numbers”, https://towardsdatascience.com/machine-learning-pipelines-feature-engineering-numbers-29f53aaec82a
33. McCulloch, W.S., Pitts, W. (1943). “A logical calculus of the ideas immanent in nervous activity”. Bulletin of Mathematical Biophysics 5, 115–133. https://doi.org/10.1007/BF02478259
34. Maleki, Farhad, et al. (2020). "Overview of machine learning part 1: fundamentals and classic approaches." Neuroimaging Clinics 30.4 (2020): e17-e32
35. Malone, B.; Simovski, B.; Moliné, C.; Cheng, J.; Gheorghe, M.; Fontenelle, H.; Vardaxis, I.; Tennøe, S.; Malmberg, J.A.; Stratford, R.; Clancy, T.(2020), “ Artificial intelligence predicts the immunogenic landscape of SARS-CoV-2 leading to universal blueprints for vaccine designs”. Sci. Rep., 2020, 10(1), 22375
36. Marchand A, Marx P.(2020), “Automated product recommendations with preference-based explanations”. J Retail. 2020;96(3):328–43
37. Menaga, A. & Shanmugam, Vasantha. (2022). “Smart Sustainable Agriculture Using Machine Learning and AI: A Review”. 10.1007/978-981-16-7952-0_42
38. Mikolov, T., Chen, K., Corrado, G.S., & Dean, J. (2013). “Efficient Estimation of Word Representations in Vector Space”. International Conference on Learning Representations
39. Minsky, Marvin. (1952). “A Neural-Analogue Calculator Based Upon a Probability Model of Reinforcement.” Harvard University Psychological Laboratories, Cambridge, Massachusetts
40. Moravec, H.P. (1990). “The Stanford Cart and the CMU Rover”. In: Cox, I.J., Wilfong, G.T. (eds) Autonomous Robot Vehicles. Springer, New York, NY. https://doi.org/10.1007/978-1-4613-8997-2_30
41. Nesajian, Minoo, (2024), “Machine Learning Algorithms You Should Know – 10 Key Algorithms for 2023,https://blog.faradars.org/ [In Persian]
42. Pan, Y. (2016).” Heading toward artificial intelligence 2.0”. Engineering, 2(4), 409- 413
43. Radford, A., & Narasimhan, K. (2018). “Improving Language Understanding by Generative Pre-Training”
44. Rajbanshi,Sabita,2021,Everything you need to know about Machine Learning, published , a part of the Data Science Blogathon
45. Ren R, Wu DD, Liu T. (2018), “Forecasting stock market movement direction using sentiment analysis and support vector machine”. IEEE SystemsJournal. 2018;13(1):760-70
46. Rosenblatt, F. (1958). "The perceptron: A probabilistic model for information storage and organization in the brain". Psychological Review. 65 (6): 386–408. CiteSeerX 10.1.1.588.3775. doi:10.1037/h0042519. PMID 13602029
47. Sejnowski, T.J., & Rosenberg, C.R. (1988). “NETtalk: a parallel network that learns to read aloud”
48. Silver, D., Huang, A., Maddison, C. et al. (2016). “Mastering the game of Go with deep neural networks and tree search”. Nature 529, 484–489 https://doi.org/10.1038/nature16961
49. Taherdoost, Hamed. (2023). “Enhancing Social Media Platforms with Machine Learning Algorithms and Neural Networks. Algorithms”. 16. 271. 10.3390/a16060271
50. Tan, M., & Le, Q.V. (2019). “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks”. ArXiv, abs/1905.11946
51. T. Cover and P. Hart. (1967). "Nearest neighbor pattern classification," in IEEE Transactions on Information Theory, vol. 13, no. 1, pp. 21-27, January 1967, doi: 10.1109/TIT.1967.1053964
52. Tuia, D., Kellenberger, B., Beery, S. et al. (2022), “Perspectives in machine learning for wildlife conservation”. Nat Commun 13, 792. https://doi.org/10.1038/s41467-022-27980-y
53. Y. Taigman, M. Yang, M. Ranzato and L. Wolf. (2014). "DeepFace: Closing the Gap to Human-Level Performance in Face Verification," 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA, 2014, pp. 1701-1708, doi: 10.1109/CVPR.2014.220
54. Yurushkin, Michael , “ How do Machine Learning Pipelines Work?”, https://broutonlab.com/blog/how-machine-learning-pipelines-work/
55. Z. Zhang. (2012). "Microsoft Kinect Sensor and Its Effect," in IEEE MultiMedia, vol. 19, no. 2, pp. 4-10, Feb. 2012, doi: 10.1109/MMUL.2012.24
Modern Management Engineering
Volume 11, Issue 4 , 2026 winter
pp. 184-201
Paper type: Research paper
A Review of Machine Learning: Process, Algorithms, and Applications (A Review-Based Approach)
Emel Sayyah1, Amir Abbas Shojaei2, Ali Akbar Akbari3, Mahdi Haji Rezaei4, Hamid Tohidi5
Received: 11/03/2025 Accepted: 18/08/2025
Extended Abstract
Purpose: Machine Learning (ML), as a major subfield of Artificial Intelligence (AI), has emerged as a critical tool for processing massive, complex, and unstructured data in various sectors. The digitalization of economic, industrial, medical, and social systems has led to the exponential growth of data, necessitating advanced intelligent tools for data-driven decision-making. ML, with its capability to learn from data, adapt to patterns, and generalize predictions, has become a central pillar of modern computational systems.
Despite substantial progress and widespread application of ML in domains such as computer vision, natural language processing, medical diagnostics, recommender systems, predictive maintenance, and cybersecurity, the field still faces several fundamental challenges. These include the absence of standardized frameworks for algorithm selection tailored to specific tasks, the lack of model interpretability, the dependency on high-quality labeled data, and ethical concerns regarding fairness, privacy, and accountability.
This study aims to provide a comprehensive, structured, and analytical review of the foundations, algorithms, challenges, and future directions of ML. Special focus is placed on the algorithm selection process, identifying critical gaps in the current research landscape, and establishing a link between theoretical advances and real-world applications. The goal is to create a unified and practical perspective for researchers, industry professionals, and decision-makers engaged in the design and deployment of ML systems.
Research methodology: This study adopts a systematic literature review approach, supplemented by documentary analysis, to comprehensively investigate the conceptual foundations, algorithmic structures, implementation challenges, and practical applications of machine learning (ML). The research design follows a structured and rigorous process to ensure both depth and breadth in understanding the evolution and current landscape of ML technologies.
Scientific data and resources were gathered from reputable academic databases and specialized websites, with an emphasis on peer-reviewed articles, technical reports, and review papers published in recent years. The selection of literature was guided by a targeted set of keywords such as Machine Learning, Algorithm Selection, Model Interpretability, and AI Applications to ensure relevance to the research questions.
To enhance validity and reliability, the study applied a triangulation strategy, drawing from multiple sources and comparing perspectives from both academic and industrial contexts. A thematic analysis was conducted to categorize the literature into five focal areas: (1) historical and theoretical foundations, (2) algorithm classification and performance metrics, (3) model selection frameworks, (4) operational and ethical challenges, and (5) future research directions.
The process of analysis involved critically reviewing existing frameworks and synthesizing insights from various studies to identify both convergence and divergence in viewpoints. By doing so, the study attempts to uncover underlying gaps, emerging trends, and actionable strategies that can guide future innovations in the field. While the paper is fundamentally a literature review, its analytical lens aims to offer added value through integration, comparison, and synthesis of diverse scholarly and technical contributions.
Findings: The study reveals that, despite significant technological improvements in ML, several major obstacles hinder its full utilization. Among them are issues related to poor data quality, imbalanced or incomplete datasets, noise sensitivity, and computational resource demands. Moreover, hyperparameter tuning remains a resource-intensive task requiring domain expertise, making it difficult for non-expert users to implement ML models effectively.
A key finding is the lack of interpretability in complex models, especially deep neural networks, which makes it difficult for stakeholders to understand and trust the model’s decisions. This becomes particularly problematic in sensitive fields such as healthcare, finance, and legal systems, where accountability and transparency are essential.
In addition to technical limitations, ethical and societal concerns also play a crucial role. These include algorithmic bias, data privacy violations, and the opaque nature of decision-making processes. The lack of standardized ethical guidelines and governance frameworks further complicates the responsible use of ML technologies.
To address these challenges, this paper proposes several directions: (1) developing self-supervised learning models that reduce reliance on labeled data, (2) designing lightweight and energy-efficient algorithms suitable for real-time applications, (3) implementing explainability frameworks to enhance model transparency, and (4) promoting hybrid learning approaches that combine the strengths of supervised, unsupervised, and reinforcement learning. The integration of these methods can improve model generalization, robustness, and real-world applicability.
Originality/scientific added value: Although the present study is conceptual and review-based, it contributes to the existing body of knowledge by offering a critical and structured synthesis of diverse research findings. Unlike traditional reviews that focus solely on technical aspects, this work bridges the gap between theoretical development and practical implementation, especially in the context of industrial engineering and management systems.
One of the distinguishing features of this research is its emphasis on the algorithm selection problem, which has received limited attention in previous reviews. By categorizing and comparing existing algorithm selection frameworks, this study helps stakeholders make more informed decisions when implementing ML models in various domains.
Additionally, the study incorporates insights from industrial applications and emerging technologies to highlight unresolved issues and future research needs. This integrative approach provides a more realistic understanding of the state-of-the-art in ML and offers practical recommendations for researchers, engineers, and policymakers.
Keywords: Artificial Intelligence, Machine Learning, Machine Learning Algorithms, Machine Learning Process
Subject classification: C45, C61, L15, L86, O32
مهندسی مدیریت نوین
سال یازدهم، زمستان 1404- شماره 4
تعداد صفحات : 184-201
نوع مقاله: پژوهشی
مروری بر یادگیری ماشین: فرآیند، الگوریتمها و کاربردها (رویکرد مروری)
امل سیاح6، امیرعباس شجاعی7، علی اکبر اکبری8، مهدی حاجی رضایی9، حمید توحیدی10
تاریخ دریافت:21/12/1403 تاریخ پذیرش: 27/05/1404
چکیده
هدف: یادگیری ماشین (ML) بهعنوان یکی از زیرشاخههای اصلی هوش مصنوعی (AI)، نقش حیاتی در تحلیل دادههای عظیم و پیچیده ایفا میکند. با وجود کاربرد گسترده آن در حوزههایی مانند بینایی ماشین، پردازش زبان طبیعی، حوزه سلامت و سیستمهای توصیهگر، همچنان چالشهای مهمی نظیر فقدان چارچوبهای استاندارد برای انتخاب الگوریتم، تفسیرپذیری پایین مدلها و دغدغههای اخلاقی پابرجا هستند. این مطالعه با هدف ارائه یک مرور تحلیلی و نظاممند از مبانی، الگوریتمها، چالشها و مسیرهای آینده یادگیری ماشین انجام شده است، با تمرکز ویژه بر بهبود فرآیند انتخاب الگوریتم و شناسایی خلأهای پژوهشی موجود.
روش تحقیق: روش این پژوهش مبتنی بر مرور نظاممند منابع علمی به همراه تحلیل اسنادی است. دادهها از پایگاههای علمی معتبر و گزارشهای صنعتی، با تمرکز بر مقالات منتشرشده در سالهای اخیر گردآوری شدهاند. برای افزایش اعتبار پژوهش، از رویکرد مثلثسازی و تحلیل تطبیقی روندهای نوظهور، عملکرد الگوریتمها و چالشهای اجرایی استفاده شده است.
یافتهها: یافتهها نشان میدهند که علیرغم پیشرفتهای چشمگیر در یادگیری ماشین، همچنان محدودیتهای مهمی مانند کیفیت پایین دادهها، دشواری در تنظیم ابرپارامترها، تفسیرناپذیری مدلها و مسائل اخلاقی وجود دارند. این مقاله چندین مسیر برای رفع این چالشها پیشنهاد میدهد، از جمله توسعه مدلهای خودنظارتی، کاهش وابستگی به دادههای برچسبخورده، طراحی الگوریتمهای کممصرف و ایجاد چارچوبهای استاندارد برای تفسیرپذیری. همچنین، ترکیب یادگیری ترکیبی، یادگیری تقویتی و شبکههای عصبی عمیق بهعنوان راهکاری برای افزایش دقت و تعمیمپذیری مدلها معرفی شدهاند.
نوآوری / ارزش علمی افزوده: با وجود اینکه ماهیت این مقاله مروری است، با ارائه یک تحلیل ساختارمند و انتقادی از ادبیات موجود، ارزش افزوده قابل توجهی فراهم کرده است. این پژوهش با شناسایی روندهای نوظهور و نیازهای پژوهشی، چارچوبی کاربردی ارائه میدهد که پیوند مؤثری میان الگوریتمهای یادگیری ماشین و کاربردهای واقعی آنها برقرار میسازد. همچنین تلاش شده تا دیدگاههای پراکنده در تحقیقات پیشین به شکلی یکپارچه و منسجم در اختیار پژوهشگران و متخصصان قرار گیرد.
واژگان کلیدی: هوش مصنوعی، یادگیری ماشین، الگوریتمهای یادگیری ماشین، فرآیند یادگیری ماشین
1. مقدمه
از زمان پیدایش یادگیری ماشین11 در اواسط قرن بیستم، زمانی که پیشگامان هوش مصنوعی12 مانند والتر پیتس، آلن تورینگ و جان فون نویمان زمینه محاسباتی این حوزه را ایجاد کردند، نقش فزاینده در جامعه بشری ایفا کرده است. آموزش ماشینها برای یادگیری از دادهها و بهبود در طول زمان، سازمانها را قادر میسازد تا وظایف معمول را خودکار کنند که در تئوری، انسانها را آزاد میکند تا کارهای خلاقانهتر و استراتژیکتری را دنبال کنند (Craig, 2024). هوش مصنوعی با پیشرفتهای قابل توجه در دهه گذشته شتاب تازهای به دست آورده است (Davenport, 2018). رنسانس اخیر AI ناشی از پیشرفتهای فناوری در پردازش اطلاعات، ذخیرهسازی دادهها و همچنین افزایش دسترسی به دادههای بزرگ بوده است(Pan, 2016). پیشبینی شده است با احتمال 50 درصد هوش مصنوعی در کمتر از 45 سال از تواناییهای انسان فراتر رود (Grace, et al, 2019).
یادگیری ماشینی، بهعنوان شاخهای از هوش مصنوعی، تمرکز بر توسعه سیستمهایی دارد که از دادهها میآموزند و با تکرار، دقت و عملکرد بهتری پیدا میکنند. این سیستمها با استفاده از الگوریتمهای مختلف، قادر به انجام وظایفی مانند طبقهبندی، پیشبینی، خوشهبندی، کاهش ابعاد و حتی تولید محتوا هستند (Learned-Miller, 2014; Maleki et al, 2020). الگوریتمهای یادگیری ماشین با دادههای آموزشی، مدلهای ریاضی ایجاد میکنند که بدون برنامهریزی صریح، قضاوت یا تصمیمگیری میکنند. تلفیق آمار و علوم کامپیوتر در این حوزه، زمینهساز تولید مدلهای پیشبینی دقیقتری شده است.
با وجود کاربردهای گسترده یادگیری ماشین در حوزههایی مانند سلامت، مالی، حملونقل و زبان طبیعی، همچنان چالشهای عمیقی در مسیر توسعه و بهکارگیری آن وجود دارد. انتخاب مدلهای مناسب، تفسیرپذیری نتایج الگوریتمها، کیفیت دادههای آموزشی و ملاحظات اخلاقی، ازجمله مهمترین دغدغههای پژوهشگران و فعالان صنعت هستند. نبود چارچوبهای استاندارد برای انتخاب و ارزیابی الگوریتمها و فقدان راهنمایی روشن برای انتخاب مدلهای بهینه در زمینههای مختلف، یکی از شکافهای اصلی در ادبیات تحقیق محسوب میشود که این مقاله درصدد پرداختن به آن است.
این مطالعه با هدف ارائه یک مرور تحلیلی و ساختاریافته از یادگیری ماشین انجام شده است اهداف اصلی تحقیق عبارتاند از: تحلیل روندهای اصلی در توسعه الگوریتمها، شناسایی چالشهای فنی و مفهومی، بررسی کاربردهای شاخص و ارائه پیشنهادهایی برای تحقیقات آینده. برای این منظور، تحقیق به پنج سؤال کلیدی زیر میپردازد:
· پرکاربردترین الگوریتمهای یادگیری ماشین کدامند و مزایا و موارد کاربرد هر یک چیست؟
· چگونه میتوان یک چارچوب جامع برای انتخاب بهینه الگوریتمهای یادگیری ماشین متناسب با کاربردهای مختلف ارائه داد؟
· بیشترین کاربردها الگوریتمهای یادگیری ماشین در چه حوزههایی بوده است؟
· مهمترین چالشهای کنونی در فرایند یادگیری ماشین چیست و چه تأثیری بر کارایی مدلها دارند؟
· مزایای یادگیری ماشین چیست؟
در شرایطی که یادگیری ماشین به یکی از ارکان اصلی توسعه فناوریهای نوین تبدیل شده است، نبود یک دیدگاه تلفیقی و تحلیلی که بتواند بین مفاهیم، چالشها و کاربردهای متنوع این حوزه پیوند برقرار کند، یک خلأ جدی محسوب میشود. این تحقیق با مرور انتقادی مطالعات موجود، تلاش میکند این خلأ را پوشش داده و با دستهبندی و مقایسه ساختارمند اطلاعات، به تصمیمگیرندگان پژوهشی و صنعتی بینش دقیقتری ارائه دهد.
روش تحقیق مبتنی بر مرور نظاممند و تحلیل اسنادی است. دادهها از طریق جستجو در پایگاههای علمی معتبر و وبسایتهای تخصصی، با تمرکز بر مقالات سالهای اخیر و با کلیدواژههایی مانند Machine Learning،Algorithm Selection و AI گردآوری شدهاند. برای افزایش اعتبار پژوهش، از رویکرد مثلثسازی با استفاده از چند پایگاه داده و مقایسه تطبیقی نتایج استفاده شده است.
تحقیق حاضر شامل مرور مبانی نظری و روندهای تاریخی، معرفی الگوریتمها و کاربردهای آنها، بررسی چارچوبهای انتخاب مدل، شناسایی چالشهای رایج و در نهایت ترسیم مسیرهای تحقیقاتی آینده است. اگرچه این مقاله ذاتاً مروری است و نوآوری مفهومی یا تکنیکی ندارد، اما تلاش شده با برجستهسازی روندهای نوظهور، تلفیق چالشها و راهکارها و ارائه تحلیلی انتقادی، ارزش افزودهای برای پژوهشگران و متخصصان فراهم شود.
2. مبانی نظری و ادبیات موضوع
یادگیری ماشینی کاربردهای عملی گسترده و متنوعی دارد. در امور مالی، الگوریتمهای ML به بانکها کمک میکنند تا با تجزیهوتحلیل حجم عظیمی از دادهها در زمان واقعی، با سرعت و دقتی که انسانها نمیتوانند با آن مقایسه کنند، تراکنشهای جعلی را شناسایی کنند. در مراقبتهای بهداشتی، ML به پزشکان در تشخیص بیماریها بر اساس تصاویر پزشکی کمک میکند و برنامههای درمانی را با مدلهای پیشبینیکننده نتایج بیمار اطلاعرسانی میکند. در خردهفروشی، بسیاری از شرکتها از ML برای شخصیسازی تجربیات خرید، پیشبینی نیازهای موجودی و بهینهسازی زنجیره تأمین استفاده میکنند.
ML همچنین وظایف دستی را انجام میدهد که فراتر از توانایی انسان برای اجرای در مقیاس هستند؛ برای مثال، پردازش مقادیر عظیمی از دادههای تولید شده روزانه توسط دستگاههای دیجیتال. این توانایی برای استخراج الگوها و بینشها از مجموعه دادههای گسترده، به یک تمایز رقابتی در زمینههایی مانند بانکداری و اکتشافات علمی تبدیل شده است. بسیاری از شرکتهای پیشرو امروزی، ازجمله متا، گوگل و اوبر، ML را در عملیات خود ادغام میکنند تا تصمیمگیری را آگاه کنند و کارایی را بهبود بخشند.
در این بخش مبانی نظری و ادبیات موضوع به تفکیک در دو بخش سیر تاریخی توسعه الگوریتمهای یادگیری ماشین و مراحل فرایند یادگیری ماشین شرح داده میشود:
سیر تاریخی توسعه الگوریتمهای یادگیری ماشین
یادگیری ماشین بیش از 80 سال است که توسط دانشمندان در صنایع مختلف مورداستفاده قرار میگیرد. اساس ریاضی یادگیری ماشین در سده 1800 تا 1900 با مفاهیم اولیه آمار و ریاضی، رگرسیون و تخمین درست نمایی13 شکل گرفت؛ اما بهصورت جدی مبحث ML در سال 1943 با مدلسازی ساده شبکه عصبی مصنوعی برای استفاده در مدارهای الکتریکی پایهریزی گردید (McCulloch & Pitts, 1943). یادگیری ماشین تا حدی بر اساس مدلی از تعامل سلولهای مغزی است که در سال 1949 توسط دونالد هب در کتابی با عنوان «سازمان رفتار» ایجاد شد(Hebb,1949). در سال 1950، تورینگ مقاله مهمی با عنوان «ماشینآلات کامپیوتری و هوش» منتشر کرد. او در مقاله خود پرسید: «آیا ماشینها میتوانند فکر کنند؟» این سبب ایجاد مبحثی شد که ماشین تورینگ نامیده میشود(Turing, 1950). اولین ماشین شبکه عصبی توسط مینسکی در سال 195114 ساخته شد که شبیهسازی از هوش انسان بود (Minsky, 1952). پرسپترون15 بهعنوان اولین کامپیوتر عصبی موفق جهت شبیهسازی فرایندهای فکری انسان در سال 1957 را ساخت (Rosenblatt, 1958). ساموئل از IBM در دهه 1959 یک برنامه کامپیوتری برای بازی چکرز توسعه داد. وی چندین مکانیسم را طراحی کرد که به برنامه او اجازه میداد بهتر شود و اصطلاح «یادگیری ماشین» را برای بار اول ابداع کرد (Samuel, 1967). سال 1967، الگوریتم نزدیکترین همسایه16، آغازی برای تشخیص الگوی پایه بود. این الگوریتم برای نقشهبرداری مسیرها مورد استفاده قرار گرفت و برای یافتن راهحلی برای مشکل فروشنده دورهای در یافتن کارآمدترین مسیر مورد استفاده قرار گرفت (Cover & Hart, 1967). دهه 1970 تا 1980، تحقیقات هوش مصنوعی بر استفاده از رویکردهای منطقی و مبتنی بر دانش بهجای الگوریتمها متمرکز شد. علاوه بر این، تحقیقات شبکه عصبی توسط محققان علوم کامپیوتر و هوش مصنوعی کنار گذاشته شد. این باعث شکاف بین هوش مصنوعی و یادگیری ماشین شد. تا آن زمان، یادگیری ماشینی بهعنوان یک برنامه آموزشی برای هوش مصنوعی مورد استفاده قرار میگرفت. این دوره که در اصطلاح از آن با عنوان زمستان هوش مصنوعی17 یاد میشود، باعث شد که یادگیری ماشین و هوش مصنوعی مسیرهای جداگانهای را طی کنند. در سال 1980 گروهی از محققان دانشگاه استنفورد رباتی به نام کارت ساختند. کنترل ربات کارت از راه دور بود و با استفاده از کامپیوتری که بر روی آن نصب شده بود، میتوانست در محیطی با موانع بسیار، مسیریابی و حرکت کند. این نوآوری را میتوان بهعنوان سرآغازی بر طراحی و ساخت وسایل نقلیه خودران معرفی کرد (Moravec, 1990)در سال 1981 دجونگ مفهوم یادگیری مبتنی بر توضیح18 را معرفی کرد که در آن یک کامپیوتر دادههای آموزشی را تجزیهوتحلیل میکند و یک قانون کلی ایجاد میکند که میتواند با دور انداختن دادههای بیاهمیت از آن پیروی کند. این پایه و اساس تکنیکهای مدرن یادگیری تحت نظارت را ایجاد کرد (DeJong, 1981). در 1985 با سادهسازی مدلهای عملیات شناختی انسان، متنی شبیه به نحوه یادگیری کودک تولید شد19 (Sejnowski & Rosenberg, 1988). از سال 1990 به بعد تمرکز ML از دانشمحوری به داده محوری گرایش پیدا کرد. در سال 1997، IBM اولین سیستم شطرنجبازی کامپیوتری شد که با شکست گری کاسپاروف20، قهرمان شطرنج جهان را شکست داد (Hsu, 1999). در قرن 21 پیشرفت ML شتاب بیشتری گرفت؛ در 2006، محاسبات الاستیک ابری21 توسط آمازون راهاندازی شد تا منابع محاسباتی مقیاسپذیر را فراهم کند که ایجاد و پیادهسازی مدلهای یادگیری ماشین را آسانتر میکند. در سال 2007 برای پیشبینی نرخ فیلم، زمانی که مسابقه جایزه نتفلیکس آغاز شد، شرکتکنندگان وظیفه داشتند دقت الگوریتم توصیه نتفلیکس22 را افزایش دهند (Bennett & Lanning, 2007). در 2008 رابط برنامهنویسی که به طراحان اجازه میداد هوش مصنوعی را در برنامههای خود ادغام کنند توسط گوگل طراحی شد. فیفی، پایگاه دادهای از 14 میلیون تصویر برچسبگذاری شده را در سال 2009 راهاندازی کرد23. این یک معیار برای محققان یادگیری عمیق است که هر سال در مسابقات شرکت میکنند24 (Deng, 2009). سال 2010، کینکت25، یک سنسور حرکتی برای کنسول بازی اِکس باکس ۳۶۰ توسط مایکروسافت منتشر شد. این سنسور میتواند ۲۰ ویژگی مختلف انسان را در ۳۰ فریم بر ثانیه ردیابی کند (Zhang, 2012). در سال 2011، واتسون در نمایش بازی26 به رقابت پرداخت که مقابل دو رقیب انسانی پیروز شد. این اولین سیستم کامپیوتری بود که برنده مسابقه با انسانها شد (Dean, et al, 2012). مدل طراحی شده کریجفسکی27، در سال 2012، با دقت ۸۴ درصد برنده رقابت دستهبندی تصویر شد (Krizhevsky, et al, 2012). در همان سال، تیم آزمایشگاهی گوگل، الگوریتم ML28 با هدف یادگیری فرایند مرور ویدئوهای پلتفرم یوتیوب و شناسایی تصاویر گربهها مانند مغز انسان معرفی کردند که از آن بهعنوان پیشرفتی چشمگیر در تاریخچه ML بهویژه پردازش تصویر29 یاد میشود (Dean, et al, 2012). سال 2013، گوگل مدلی30 طراحی کرد که تعبیه کلمات در NLP، ماشین را قادر میکند که ربط کلمات به کلمات دیگر را براساس فاصله بین بردارهای کلمات، بفهمد (Mikolov, et al, 2013).
در سال 2014 طراحی مدلی برای ایجاد دادههای مصنوعی واقعی (Goodfellow, et al, 2014) و تشخیص چهره انسان در عکسها در فیس بوک بارزترین دستاوردهای ML بودند (Tiegman, et al, 2014). در 2015، ماسک و آلتمن سازمانی غیرانتفاعی31 با هدف استفاده از AI برای خدمت به انسان، تأسیس کردند. در همین سال مایکروسافت، جعبهابزار ذهنی، یک کتابخانه یادگیری عمیق منبع باز را ارائه کرد و آمازون نیز پلتفرم یادگیری ماشینی ایجاد کرد که مجموعهای از ابزارها و الگوریتمها را برای ساخت و آموزش مدلهای یادگیری ماشین در اختیار دانشمند علم داده قرار میدهد. شکست دادن یکی از بهترین بازیکنان بازی گو به نام لی سدول32 در سال ۲۰۱۶ توسط الگوریتم آلفاگو33، باعث شگفتی همگان شد (Silver, et al, 2016). در سال 2017، گوگل، تلفنهایی که از ML و DL استفاده میکردند34 را معرفی کرد، اپل، دستگاه تعاملی یادگیری ماشین35 و شرکت وایمو36 ازجمله اولینهایی بود که دست به ساخت اتومبیلهای خودران زد. در سال 2018، گوگل مدلی37 ارائه کرد که ساختار معنایی کلمات موجود در یک عبارت جستجو شده (کوئری) را به شکل دقیقتری درک کند (Devlin, et al, 2019) و در همان سال openAI، مدلهای زبانی38 را ارائه کرد (Radford, et al, 2018). سال 2019، گوگل مدلی39 برای تقویت وظایف بینایی کامپیوتر مانند تشخیص اشیاء و طبقهبندی تصویر را معرفی کرد (تان و لو، 2019). برنامه openAI40 که در 2020 ارائه شد که میتواند متون را شبیه به انسان بنویسد و نقش نویسنده را داشته باشد (Brown, et al, 2020).
سال 2021، در دسترس قرار گرفتن عمومی فناوریهای یادگیری و همچنین نوعی از GPT-3 که به تولید تصاویر از متن میپردازد و بُعد کاملاً جدیدی به پردازش زبان اضافه میکند41 توسط openAI معرفی شد. برنامهای که میتواند هر سؤالی را جواب دهد42 توسط OpenAI در سال 2022 ارائه شد. برنامههای گوگل در سال 2023 که وظایف تشخیص تصویر را بهتر از روشهای قبلی انجام میدهد43 و تعامل با سیستم با استفاده از متن، تصاویر و گفتار44 بود و این موارد تنها بخشی از پیشرفتها و دستاوردهای برجسته در یادگیری ماشین در طول دوره از پیش تعریف شده است. این زمینه در سالهای اخیر با جهشهای جدید، استراتژیها و برنامههای کاربردی با سرعت به پیشرفت خود ادامه خواهد داد. در شکل 2 روند توسعه یادگیری ماشین نشان داده شده است.
شکل 1: روند توسعه یادگیری ماشین
Figure 1: Machine learning development process
مراحل فرایند یادگیری ماشین
فرآیند یادگیری ماشینی شامل چندین مرحله اساسی است. جدول 1 بهصورت خلاصه و ساختاری، مراحل یادگیری ماشین را بیان میکند. (Albuzi, et al, 2019 Banola, 2023; Kulin, et al, 2021; Leung, 2019; Yurushkin,2024.)
جدول 1: مراحل فرایند یادگیری ماشین
Table 1: Steps in the machine learning process
شرح | مرحله |
شناسایی مشکل و تبدیل آن به یک مسئله علم داده. | 1. تعریف مسئله |
جمعآوری دادههای قابل اعتماد برای استفاده در یادگیری مدل. | 2. جمعآوری دادهها |
نرمالسازی دادهها: اطمینان از یکنواخت بودن توزیع دادهها. | 3. آمادهسازی دادهها |
پاکسازی دادهها: حذف دادههای ناخواسته، مقادیر ازدسترفته، ردیفها و ستونها. | |
دگرگونی دادهها: بررسی ساختار دادهها و رابطه بین متغیرها و کلاسها. | |
استخراج ویژگیها: تبدیل دادهها به اعداد قابل فهم برای مدل. | |
تقسیم دادهها: تقسیم دادهها به مجموعههای آموزشی و آزمایشی. | |
انتخاب مدل: انتخاب مدلی مرتبط با کار مورد نظر. | 4. آموزش و ساخت مدل |
آموزش مدل: استفاده از دادههای آمادهشده برای آموزش مدل. | |
ارزیابی مدل: بررسی عملکرد مدل بر اساس دادههای آزمایشی. | |
تنظیم پارامترها: بهبود دقت مدل از طریق تنظیم پارامترها. | |
استقرار مدل در سیستم عملی یا استفاده از آن برای پیشبینی دادههای جدید. نظارت مستمر بر عملکرد مدل. | 5. استقرار مدل |
3. یافتهها (تحلیل موضوعی)
در این بخش از تحقیق یافتههای حاصل از تحقیق به تفکیک سؤالات تحقیق ارائه میشود:
سؤال اول: پرکاربردترین الگوریتمهای یادگیری ماشین کدامند و مزایا و موارد کاربرد هر یک چیست؟
الگوریتم یادگیری ماشین که مدل نیز نامیده میشود، با شناسایی و استخراج الگوها از دادهها بهجای داشتن دانش در آنها یاد میگیرند (Goodfellow, et al,2016). مدلهای یادگیری ماشین دارای چندین مزیت مهم هستند. الگوریتمهای یادگیری ماشینی میتوانند با تجزیهوتحلیل همزمان حجم زیادی از دادهها، روندها و الگوها را بهسرعت شناسایی کنند. آنها توانایی بیشتری برای بهبود مستمر دارند. الگوریتمهای یادگیری ماشینی میتوانند دقت و کارایی خود را برای تصمیمگیری از طریق آموزشهای بعدی از دادههای جدید بالقوه بهبود بخشند... آنها برای خودکارسازی وظایف مختلف تصمیمگیری قانعکننده هستند و در آخر، یادگیری ماشینی در صنایع مختلف، مفید بوده است (Khanzodeh & Sarodeh,2020).
بهطورکلی الگوریتمهای یادگیری ماشین به 3 گروه تقسیم میشوند، همانطور که در شکل 4 نشان داده شده است، هر کدام دارای تکنیکهایی به شرح زیر میباشند:
یادگیری نظارتشده45: در یک مدل یادگیری نظارتشده، الگوریتم روی یک مجموعه داده برچسبگذاری شده یاد میگیرد. این الگوریتم شامل 2 نوع است:
الف) طبقهبندی46: یک برنامه کامپیوتری بر روی یک مجموعه داده آموزشی آموزش داده میشود و بر اساس آموزش دادهها را در برچسب کلاسهای مختلف دستهبندی میکند. این الگوریتم برای پیشبینی مقادیر گسسته استفاده میشود.
ب) رگرسیون47: وظیفه الگوریتم رگرسیون یافتن تابع نگاشت برای نگاشت متغیرهای ورودی (x) به متغیر خروجی پیوسته (y) است. الگوریتمهای رگرسیون برای پیشبینی مقادیر پیوسته استفاده میشوند.
یادگیری بدون نظارت48: در یک مدل یادگیری بدون نظارت، الگوریتم روی یک مجموعه داده بدون برچسب یاد میگیرد و سعی میکند با استخراج ویژگیها، همرویکردی و الگوهای زیربنایی بهتنهایی معنا پیدا کند. الگوریتمهای این مدل شامل:
الف) خوشهبندی49: خوشهبندی روشی برای گروهبندی اشیا به خوشهها است بهطوریکه اشیاء با بیشترین شباهت در یک گروه باقی میمانند و اشیایی که شباهت کمتری با اشیاء گروه دیگر دارند یا اصلاً شباهت ندارند در گروه دیگر قرار میگیرند.
ب) کاهش ابعاد50: کاهش ابعاد تکنیکی است که برای کاهش تعداد ویژگیهای یک مجموعه داده استفاده میشود و درعینحال تا حد امکان اطلاعات مهم را حفظ میکند.
ج) ائتلاف کاوی51: ارتباط و روابط جالبی را در میان مجموعههای بزرگی از اقلام داده پیدا میکند.
یادگیری تقویتی52: یادگیری تقویتی نوعی از یادگیری ماشینی است که در آن مدل با انجام برخی اقدامات و تجزیهوتحلیل واکنشها یاد میگیرد که در یک محیط رفتار کند. مدل تقویتی تصمیم میگیرد چه اقداماتی را برای انجام یک کار معین انجام دهد، به همین دلیل است که باید از خود تجربه بیاموزد (Sabita,2021).
تکنیکهای گروهی53 نوعی از الگوریتمهای یادگیری ماشین هستند که در آن طبقهبندی کنندههای پایه متعدد برای تولید یک مدل بهینه ترکیب میشوند. یک تکنیک گروهی مدلهای زیادی را در نظر میگیرد و آنها را ترکیب میکند تا یک مدل واحد را تشکیل دهد و مدل نهایی نقاط ضعف هر یک از یادگیرندگان را از بین میبرد و در نتیجه یک مدل قدرتمند ایجاد میکند که عملکرد مدل را بهبود میبخشد. در جدول 2 پرکاربردترین تکنیکهای الگوریتم ماشین به همراه مزایا و کاربردهای آنها آورده شده است (Geeksforgeeks,2024).
جدول 2: پرکاربردترین تکنیکهای الگوریتم ماشین، مزایا و کاربردهای آنها
Table 2: The most widely used machine learning algorithm techniques, their advantages and applications
کاربرد | مزایا | شرح | الگوریتمها | دسته | نوع تکنیک | |
تشخیص هرزنامه ایمیل، تشخیص بیماری، امتیازدهی اعتبار | -آسان بودن -فرض رابطه خطی بین ویژگیهای ورودی و نتایج | احتمال یک نتیجه باینری را با استفاده از یک تابع لجستیک مدل میکند. احتمالات را خروجی میدهد و نمونهها را با تعیین آستانه طبقهبندی میکند. | رگرسیون لجستیک (LR)
| دستهبندی | نظارتشده | |
طبقهبندی تصاویر، دستهبندی متن، بیوانفورماتیک | -مؤثر در فضاهای با ابعاد بالا -مناسب برای طبقهبندی خطی و غیرخطی -حساس به انتخاب هسته و پارامترهای تنظیم. | هایپرپلن را پیدا میکنند که بهترین کلاسهای مختلف را با به حداکثر رساندن حاشیه بین آنها جدا میکند. | ماشینهای بردار پشتیبانی(SVM) | |||
سیستمهای توصیهکننده، تشخیص الگو، تشخیص ناهنجاری. | -ساده -تبدیل مدل به یک یادگیرنده بدون مرحله آموزشی صریح -حساس به انتخاب k و متریک فاصله | نمونهها را بر اساس کلاس اکثریت در میان k-نزدیکترین همسایگان در فضای ویژگی طبقهبندی میکند. | k-نزدیکترین همسایهها(KNN) | |||
طبقهبندی متن، تجزیهوتحلیل احساسات، فیلتر هرزنامه. | -سریع و کارآمد. -عملکرد قوی با دادههای ابعاد بالا | از قضیه بیز با فرض استقلال ویژگی برای طبقهبندی نمونهها استفاده میکند. | بیز ساده (NB) | |||
ارزیابی ریسک، تشخیص تقلب، تقسیمبندی مشتری. | -تفسیر و تجسم آسان. -مدیریت دادههای عددی و مقولهای -مستعد برازش بیشازحد بدون هرس مناسب. | دادهها را بر اساس ارزش ویژگیهای ورودی به زیرمجموعهها تقسیم میکنند و یک مدل درخت مانند از تصمیمها ایجاد میکنند. | درخت تصمیم (DT) | |||
پیشبینی مالی، طبقهبندی تصویر، تشخیص مراقبتهای بهداشتی. | -کاهش برازش بیشازحد در مقایسه با درختان تصمیمگیری فردی -مدیریت مجموعه دادههای بزرگ با ابعاد بالاتر -نیاز به منابع محاسباتی بیشتری | مجموعهای از درختهای تصمیمگیری است که دقت را بهبود میبخشد و با میانگینگیری چندین درخت آموزشدیده بر روی زیرمجموعههای مختلف داده، برازش را کنترل میکند. | جنگل تصادفی(RF) | |||
رتبهبندی جستجوی وب، پیشبینی ریزش مشتری، پیشبینی ریسک بیمه. | - دقیق و کارآمد. -مدیریت انواع مختلف دادهها - مستعد برازش بیشازحد | مدلها را بهطور متوالی میسازد تا خطاهای مدلهای قبلی را تصحیح کند و ازنظر دقت بهینهسازی شود. | تقویت گرادیان(GB) | |||
تشخیص تصویر، تشخیص گفتار، پردازش زبان طبیعی | -توانایی یادگیری روابط غیرخطی. -نیاز به حجم زیادی داده -مستعد تناسب بیشازحد | از لایههایی از گرههای بههمپیوسته برای مدلسازی الگوهای پیچیده در دادهها استفاده میکنند. | شبکههای عصبی(NN) | |||
پیشبینی قیمت مسکن، پیشبینی فروش، مدیریت ریسک | -ساده و آسان برای پیادهسازی. -فرض رابطه خطی بین متغیرها -حساس به موارد پرت | رابطه بین متغیرهای وابسته و مستقل را با استفاده از رویکرد خطی مدل میکند. | رگرسیون خطی(LR) | رگرسیون | ||
پیشبینی سری زمانی، پیشبینی قیمت سهام، ارزیابی املاک و مستغلات | -مؤثر در فضاهای با ابعاد بالا -مقاوم در برابر موارد پرت. -حساس به انتخاب هسته و پارامتر تنظیم. | برای کارهای رگرسیونی با یافتن تابعی استفاده میکند که از مقادیر هدف واقعی با مقداری بیشتر از یک حاشیه مشخص منحرف میشود. | رگرسیون بردار پشتیبان(SVR) | |||
مدلسازی محیطی، پیشبینی تقاضای انرژی، تحلیل بازار. | - کاهش برازش بیشازحد را در مقایسه با درختان تصمیمگیری فردی -مدیریت مجموعه دادههای بزرگ با ابعاد بالاتر -نیاز به منابع محاسباتی بیشتری | مجموعهای از درختان تصمیم برای وظایف رگرسیونی است که میانگین پیشبینیها را برای بهبود دقت و کنترل بیشازحد برازش میدهد. | رگرسیون جنگل تصادفی(RFR) | |||
پیشبینی کسبوکار، تشخیص پزشکی، مهندسی. | -تفسیر و تجسم آسان. -مدیریت دادههای عددی و مقولهای -مستعد برازش بیشازحد بدون هرس مناسب. | دادهها را به زیرمجموعههایی تقسیم میکند تا مقادیر پیوسته را پیشبینی کند. | رگرسیون درخت تصمیم(DTR) | |||
پیشبینی قیمت مسکن، پیشبینی ارزش طول عمر مشتری، پیشبینی تقاضا | -ب دقیق و کارآمد. -مدیریت انواع مختلف دادهها - مستعد برازش بیشازحد | بهطور متوالی مدلهایی را برای بهبود پیشبینیها با تصحیح خطاهای مدلهای قبلی ایجاد میکند. | رگرسیون افزایش گرادیان(GBR) | |||
پیشبینی مصرف انرژی، تجارت الگوریتمی، پیشبینی آبوهوا | -توانایی یادگیری روابط غیرخطی. -نیاز به حجم زیادی داده -مستعد تناسب بیشازحد | شبکههای عصبی برای رگرسیون از لایههایی از گرههای بههمپیوسته برای پیشبینی مقادیر پیوسته استفاده میکنند. | شبکه عصبی رگرسیونی(NNR) | |||
تقسیمبندی مشتری، تحقیقات بازار، فشردهسازی تصویر | -ساده و کارآمد. -حساس به قرارگیری اولیه مرکزیت | به معنی تقسیم دادهها به k خوشه بر اساس شباهت ویژگیها، به حداقل رساندن مجموع فاصلههای مجذور از هر نقطه تا مرکز خوشه اختصاص داده شده آن است. | k-mean | خوشهبندی | بدون نظارت | |
تجزیهوتحلیل شبکههای اجتماعی، تجزیهوتحلیل توالی ژن، خوشه بندی اسناد. | -نیاز به تعداد ازپیش تعریف شده خوشه -ایجادیک دیاگرام درختی برای تجسم سلسله مراتب - محاسبات فشرده برای مجموعه دادههای بزرگ. | سلسله مراتبی از خوشهها را با استفاده از رویکرد پایین به بالا (انباشتگی) یا از بالا به پایین (تقسیمکننده) ایجاد میکند. | سلسله مراتبی از خوشهها (Hierarchical clustering) | |||
پیشبینی مالی، طبقهبندی تصویر، تشخیص مراقبتهای بهداشتی. | -کاهش برازش بیشازحد برازش -بهبود ثبات و دقت -نیاز به منابع محاسباتی بیشتر | واریانس را با میانگینگیری پیشبینیهای چند مدل آموزشدیده بر روی زیرمجموعههای مختلف داده، معمولاً با استفاده از درختهای تصمیم کاهش میدهد. | کیسه بندی54 | مدلهای ترکیبی | ||
رتبهبندی جستجوی وب، پیشبینی ریزش مشتری، پیشبینی ریسک بیمه. | - دقیق و کارآمد. -مدیریت انواع مختلف دادهها - مستعد برازش بیشازحد برازش | بهطور متوالی مدلهایی را برای تصحیح خطاهای مدلهای قبلی ایجاد میکند و برای دقت بهینه میشود. | تقویت55 | |||
مدلسازی پیشبینی، راهحلهای برنده رقابت، سیستمهای توصیه. | -استفاده در انواع مدلهای مختلف -پیچیدهتر برای پیادهسازی و تنظیم. | چندین مدل را با آموزش یک متا مدل بر روی خروجیهای آنها، برای بهبود عملکرد ترکیب میکند. | انباشتگی56 |
سؤال 2: چگونه میتوان یک چارچوب جامع برای انتخاب بهینه الگوریتمهای یادگیری ماشین متناسب با کاربردهای مختلف ارائه داد؟
بهمنظور انتخاب مناسبترین الگوریتم یادگیری ماشین برای پیادهسازی مسائل، باید به دو سؤال پاسخ داده شود:
سؤال اول: میخواهید با دادههای خود چه کار کنید؟ به عبارتی، سؤالی که میخواهید با یادگیری از دادههای گذشته خود به آن پاسخ دهید چیست؟ بهطورکلی، نوع مسئله یا مشکل میتواند در یکی از طبقات مطابق جدول 3 قرار میگیرد:
جدول 3: نوع مسئله، نحوه کار و انتخاب الگوریتم مناسب برای حل مسئله
Table 3: Problem type, how to work and choosing the appropriate algorithm to solve the problem
نوع مسئله | دسته | نحوه کار | به سؤالاتی از این قبیل پاسخ میدهد. | نوع الگوریتم |
پیشبینی مقادیر | رگرسیون | با تخمین رابطه بین مقادیر را پیشبینی میکند | چه مقدار یا چه تعداد؟ | LR,NN,DT |
پیشبینی بین دو دسته | طبقهبندی دو کلاسه | به سؤالات ساده دوگزینهای مانند بله یا خیر، درست یا غلط پاسخ میدهد | الف درست است یا ب؟ | NN,DT,SVM |
پیشبینی بین چند دسته | طبقهبندی چندکلاسه | به سؤالات پیچیده با چندین پاسخ ممکن پاسخ میدهد | الف درست است یا ب یا ج یا د؟ | LR, NN. |
کشف ساختار | خوشهبندی | نقاط داده مشابه درون گروههای بصری را جدا میکند؟ | این چگونه سازماندهی شده است؟ | K-mean |
طبقهبندی تصاویر | طبقهبندی تصاویر | تصاویر با شبکههای عمومی را طبقهبندی میکند. | این تصویر نشاندهنده چیست؟ | ResNET |
استخراج اطلاعات از متن | تجزیهوتحلیل متن | اطلاعات با کیفیت بالا را از متن استخراج میکند
| چه اطلاعاتی در این متن وجود دارد؟ | Word2vector
|
ایجاد توصیه | توصیه دهندگان | پیشبینی میکند که هرکس به چه چیزی علاقهمند خواهد شد | آنها به چه چیزی علاقهمند خواهند شد؟ | SVD |
یافتن موارد غیرمعمول | تشخیص ناهنجاری | نقاط داده نادر یا غیرمعمول را شناسایی و پیشبینی میکند | آیا این عجیب است؟ | SVM,PCA |
سؤال دوم: الزامات علم داده چیست؟ مهمترین الزامات شامل موارد زیر است:
دقت57: دقت مدل نشان میدهد که مدل تا چه میزان میتواند مسئله را بهدرستی حل کند.
زمان آموزش58: مدلهایی که از دقت بالایی در حل مسائل برخوردار هستند، اصولاً به زمان بیشتری برای یادگیری احتیاج دارند. بهعلاوه، چنانچه حجم دادههای آموزشی زیاد باشد، زمان آموزش مدل نیز بهمراتب بیشتر خواهد شد.
تعداد پارامترها59: پارامترها اعدادی هستند که بر رفتار الگوریتم تأثیر میگذارند، مانند تحمل خطا یا تعداد تکرارها، یا گزینههایی بین انواع مختلف نحوه رفتار الگوریتم. زمان آموزش و دقت الگوریتم گاهی اوقات میتواند به تنظیمات مناسب حساس باشد.
تعداد ویژگیها60: دادههای آموزشی ممکن است دارای ویژگیهای بسیار زیادی باشند. برخی از این ویژگیها نیز ممکن است به مسئله تعریف شده غیر مرتبط باشند که در این حالت بهتر است در زمان آموزش مدل، استفاده نشوند.
اندازه مجموعه داده61: اندازه مجموعه داده نقش اساسی در تعیین پیچیدگی مدل یادگیری ماشین دارد. مجموعه دادههای بزرگ میتوانند از مدلهای پیچیده مانند یادگیری عمیق بهره ببرند، از سوی دیگر، مجموعه دادههای کوچکتر ممکن است به مدلهای سادهتری برای جلوگیری از برازش بیشازحد نیاز داشته باشند.
خطی بودن62: خطی بودن در آمار و یادگیری ماشین به این معنی است که یک رابطه خطی بین یک متغیر و یک ثابت در مجموعه داده شما وجود دارد.
کیفیت دادهها63: تمیزی دادههای را ارزیابی کنید، ازجمله مقادیر ازدسترفته و موارد پرت.
با پاسخ به سؤالات بالا و مقایسه عملکرد الگوریتمها، میتوانید تصمیم آگاهانهای در مورد اینکه از کدام الگوریتم برای مسئله خاص خود استفاده کنید، بگیرید. الگوریتمی که بهترین عملکرد را در معیارهای ارزیابی شما دارد و با محدودیتهای محاسباتی شما همسو است، معمولاً بهترین انتخاب است (Kharwal, 2023 Gayhardt & Yoshioka, 2024; Nasajian, 2024; ).
سؤال 3: بیشترین کاربردها الگوریتمهای یادگیری ماشین در چه حوزههایی بوده است؟
یادگیری ماشینی یک اصطلاح کلی برای مجموعهای از تکنیکها و ابزارهایی است که به رایانهها کمک میکنند تا خودشان یاد بگیرند و سازگار شوند. الگوریتم یادگیری ماشین با یادگیری یک الگو از ورودیهای نمونه، وظایف را صرفاً بر اساس الگوی آموخته شده و نه یک دستورالعمل برنامه از پیش تعریف شده، پیشبینی و انجام میدهد.
در جدول 4 زیر بخشی از کاربردهای یادگیری ماشین در دنیای واقعی که جهان را فراگرفتهاند را بررسی میکنیم.
جدول 4: کاربردهای یادگیری ماشین در دنیای واقعی
Table 4: Real-world applications of machine learning
نمونهها و مراجع | کاربرد یادگیری ماشینی | حوزه کاربردی |
Ahmad, et al, 2020; (ترکیبی برای پیشبینی مرگومیر در بیماران فلج با استفاده از پرونده الکترونیک سلامت) Malone, et al, 2020(پیشبینیهای هوش مصنوعی در رابطه با ایمنیزایی SARS-CoV-2 که منجر به برنامههای جهانی برای طراحی واکسن) Avci & Karakaya, 2023(بهبود تصاویر پزشکی برای تشخیص سرطان سینه در تصاویر ماموگرافی) Rahimkhani & Gilani ,2024 ( پیشبینی مقاومت ضد میکروبی در باکتریها) Esteva, et al,2021(نقش یادگیری ماشین را در تشخیص بیماریهایی مانند سرطان و بیماریهای چشمی) | تحلیل روندهای بیماری، پیشبینی طول عمر بیماران، کشف دارو، درمان شخصی | بهداشت و درمان |
Ren, et al, 2018 (پیشبینی حرکت بازار سهام) Smith & Johnson, 2022 (مدلسازی ریسک نقدشوندگی در مؤسسات اعتباری) Doe & Brown,2023 (پیشبینی تاریخ پرداخت مشتریان بانک) | شناسایی فعالیتهای تقلبی، کشف فرصتهای سرمایهگذاری، پیشبینی بازار سهام | مالی و بانکداری |
Brown & Green, 2023 (شناسایی و تفکیک اخبار جعلی از واقعی در پلتفرمهای رسانههای اجتماعی) Williams & Patel, 2023 (پیشبینی رفتار کاربران در رسانههای اجتماعی) Smith & Doe, 2023 (تحلیل احساسات کاربران در پلتفرمهای مختلف رسانههای اجتماعی) | شخصیسازی محتوا، تبلیغات هدفمند، برچسبگذاری خودکار تصاویر، پیشنهادهای حرفهای لینکدین | رسانههای اجتماعی |
Devarapalli, 2022 (ترجمه ماشینی) Brown, et al,2020(تشریح زبان GPT-3) | ترجمه ماشینی زبانهای مختلف | ترجمه زبان |
Boukerche & Wang, 2020 (پیشبینی دقیق ترافیک) Hosseini, et al, 2022 (پیشبینی وضعیت ترافیک ساعتی) | مدلسازی ترافیک، پیشنهاد مسیرهای بهینه، بهبود سیستمهای حملونقل | پیشبینی ترافیک و حملونقل |
Marchand & Marx, 2020 (مدلسازی پیشبینیکننده جهت مدیریت انبار و لجستیک) | پیشنهادهای محصول سفارشی، مدیریت موجودی، بهینهسازی لجستیک | تجارت الکترونیک |
Tuia, et al, 2022 (توسعه مدلهای رفتاری برای گونههای دریایی در حال انقراض) | توسعه مدلهای رفتاری برای گونههای در حال انقراض، تنظیم و نظارت بر جمعیت گونهها | حفاظت از حیاتوحش دریایی |
Menaga & Shanmugam, 2022 (استفاده از ML برای مراحل مختلف کشاورزی) | پیشبینی عملکرد محصول، تشخیص بیماری، مدیریت مواد مغذی خاک، تحلیل نیازهای آبیاری | کشاورزی پایدار |
Zou, et al, 2019 (تحلیل دادههای بیولوژیکی) Kumar, et al, 2023 (طبقهبندی و پیشبینی توالیهای DNA و پیشبینی ساختار پروتئینها) (توسعه و تولید فرآیندهای بیوفارماسوتیکال) | بیوانفورماتیک، شیمیفورماتیک، شبکههای کامپیوتری، طبقهبندی توالی DNA، رباتیک، مهندسی پیشرفته و موارد دیگر | سایر حوزهها |
سؤال 4: مهمترین چالشهای کنونی در فرایند یادگیری ماشین چیست و چه تأثیری بر کارایی مدلها دارند؟
با توجه به گستره وسیع کاربرد ML، یادگیری ماشین باز هم با چالشهایی روبهرو است بهطورکلی چالشهای استفاده از ML را میتوان به سه حوزه تقسیم کرد(Goodfellow, et al, 2016). در جدول 5 این تقسیمبندی نشان داده شده است.
جدول 5: چالشهای یادگیری ماشین
Table 5: Machine Learning Challenges
توضیحات | چالشها | دستهبندی |
الگوریتمهای یادگیری ماشینی نیاز به حجم زیادی از دادهها برای دقت بالاتر دارند، اما دسترسی به دادهها در برخی حوزهها مانند بانکداری و مراقبتهای بهداشتی دشوار است. | حجم داده |
چالشهای مربوط به دادهها |
دادههای کمکیفیت منجر به عملکرد ضعیف مدلهای یادگیری ماشین میشود. بیشتر کار دانشمندان داده صرف تمیز کردن و سازماندهی دادهها میشود. | کیفیت داده | |
زمانی اتفاق میافتد که یک مدل بیشازحد پیچیده باشد و کاملاً با دادههای آموزشی سازگار شود، اما در دادههای جدید عملکرد ضعیفی داشته باشد. | برازش بیشازحد دادهها64 | |
برخی الگوریتمهای یادگیری ماشین برای یک مجموعه داده خاص طراحی شدهاند و نمیتوان آنها را بهسادگی در سایر زمینهها استفاده کرد. | عدم تناسب دادهها | |
دادههای آموزشی بهتنهایی کافی نیستند و نیاز به ویژگیهای معنادار و مرتبط برای آموزش مؤثر مدلهای یادگیری ماشین وجود دارد. | ویژگیهای بیربط | |
شامل ایمنسازی دادهها در برابر تهدیدات سایبری، تشخیص دادههای جعلی و کنترل دسترسی به دادهها است. | امنیت دادهها |
چالشهای پروژههای ML |
بسیاری از متخصصان یادگیری ماشین در استقرار موفقیتآمیز پروژههای خود مشکل دارند و گاهی نمیتوانند نیازهای واقعی کسبوکار را درک کنند. | استقرار مدلها | |
اکثر مدلهای یادگیری ماشین بر دادههای ایستا مانند متن و تصاویر آموزش داده شدهاند و استفاده از دادههای پویا همچنان چالشبرانگیز است. | دادههای آموزشی ویدیویی |
چالشهای برنامههای ML |
نیاز به ترکیب یادگیری عمیق و بینایی کامپیوتر دارد. تشخیص چهره به دلیل ویژگیهای مشابه در چهرههای انسانی یکی از سختترین چالشها در این حوزه است. | تشخیص اشیا |
این جدول نمایی جامع از چالشهای یادگیری ماشینی و فرصتهای آینده آن را ارائه میدهد. الگوریتمهای یادگیری ماشینی در حال توسعه مداوم هستند و قطعاً در سالهای آینده گسترش بیشتری خواهند یافت. آنها در بسیاری از برنامههای کاربردی مختلف مفید هستند. با توجه بهسرعت فعلی پیشرفت در این زمینه، آینده روشنی برای آن وجود دارد. کاربردهای یادگیری ماشینی پتانسیل گسترش چشمگیر در آینده نزدیک را دارند (Forbes, 2021).
سؤال 5: مزایای یادگیری ماشین چیست؟
ML در سالهای اخیر پیشرفت چشمگیری داشته و مزایای گستردهای در صنایع مختلف پیدا کرده است. در جدول زیر مزایای یادگیری ماشینی بهطور خلاصه در جدول 6 نمایش داده شده است) (Geeksforgeeks, 2024
جدول 6: مزایای یادگیری ماشینی
Table 6: Benefits of Machine Learning
توضیحات | مزیت |
پردازش حجم وسیعی از دادهها و شناسایی الگوهایی که ممکن است توسط انسان نادیده گرفته شوند. (Jordan & Mitchell, 2015) | بهبود دقت |
آزادسازی منابع انسانی برای فعالیتهای پیچیدهتر و خلاقانهتر(Bishop, 2016). | خودکارسازی وظایف تکراری |
تجزیهوتحلیل دادههای بزرگ برای ارائه بینشهایی جهت تصمیمگیری بهتر. | تصمیمگیری پیشرفته |
امکان شخصیسازی محصولات و خدمات برای بهبود تجربه مشتری(Zhang, et al, 2021 | شخصیسازی و تجربه مشتری |
پیشبینی رویدادهای آینده بر اساس دادههای تاریخی. | تجزیهوتحلیل پیشبینی |
مدیریت حجم زیادی از دادهها و مقیاسپذیری کارآمد با رشد دادهها. | مقیاسپذیری |
شناسایی و پاسخگویی به تهدیدات امنیتی در زمان واقعی(Nguyen & Reddi, 2019). | بهبود امنیت |
خودکارسازی فرآیندها، کاهش هزینههای نگهداری و جلوگیری از خرابیهای پرهزینه. | کاهش هزینه |
تقویت نوآوری و ایجاد مزیت رقابتی از طریق استفاده از ML در توسعه محصول و استراتژیهای بازاریابی. | نوآوری و مزیت رقابتی |
ارائه ابزارها و بینشهایی که عملکرد انسان را بهبود میبخشد. | افزایش قابلیتهای انسانی |
4. بحث
در این مطالعه، مروری جامع بر یادگیری ماشین انجام شده و فرآیندهای مختلف آن، انواع الگوریتمها، کاربردها، چالشها و مسیرهای پژوهشی آینده بررسی شده است. یافتههای تحقیق نشان میدهد که یادگیری ماشین بهعنوان یکی از مهمترین شاخههای هوش مصنوعی، تأثیرات گستردهای بر علوم مختلف گذاشته و بهطور پیوسته در حال پیشرفت است.
بهطورکلی الگوریتمهای یادگیری ماشین به سه دستهی کلی نظارتشده، بدون نظارت و یادگیری تقویتی تقسیم میشوند. هر دسته دارای الگوریتمهای متفاوتی است که کاربردهای خاصی دارند. برای مثال، در یادگیری نظارتشده، الگوریتمهایی مانند رگرسیون لجستیک، ماشین بردار پشتیبان و شبکههای عصبی بهطور گسترده در حوزههای مختلف استفاده میشوند. در یادگیری بدون نظارت، خوشهبندی و کاهش ابعاد ازجمله تکنیکهای پرکاربرد محسوب میشوند. یادگیری تقویتی نیز برای مسائل تصمیمگیری و کنترل استفاده شده و مدلهای تقویتی مختلفی پیشنهاد شدهاند.
هر الگوریتم دارای مزایا و معایب خاصی است. بهعنوانمثال، ماشین بردار پشتیبان در فضاهای با ابعاد بالا عملکرد خوبی دارد اما نیاز به انتخاب پارامترهای مناسب دارد. شبکههای عصبی قدرت یادگیری بالایی دارند اما نیازمند دادههای حجیم و منابع محاسباتی بالا هستند.
برای انتخاب بهینه الگوریتمهای یادگیری ماشین تحلیلها نشان میدهد که انتخاب بهینه الگوریتم وابسته به ویژگیهای مسئله و الزامات دادهمحور است. معیارهایی نظیر دقت، زمان آموزش، اندازه مجموعه داده، کیفیت داده و نوع مسئله در تعیین الگوریتم مناسب نقش دارند. روشهای متنوعی برای بهینهسازی انتخاب الگوریتم پیشنهاد شدهاند که ازجمله آنها میتوان به استفاده از مدلهای ترکیبی و فرایندهای تنظیم ابرپارامتر اشاره کرد. برای مثال، مدلهای مبتنی بر تقویت گرادیان و جنگل تصادفی از ترکیب چندین مدل برای افزایش دقت استفاده میکنند.
یکی از یافتههای مهم تحقیق، شناسایی چالشهای اصلی یادگیری ماشین است. مهمترین چالشها شامل کمبود دادههای با کیفیت، مسائل مربوط به تفسیرپذیری مدلها، پیچیدگی محاسباتی و مشکل برازش بیشازحد است. همچنین، مسائل اخلاقی و حفظ حریم خصوصی دادهها بهعنوان یکی از موانع مهم در پذیرش گستردهتر این فناوری شناخته میشود. افزایش قابلیت تفسیر مدلها و توسعه روشهای یادگیری فدراتیو ازجمله راهکارهای پیشنهادی برای رفع این چالشها است.
در خصوص کاربردهای یادگیری ماشین نتایج مرور ادبیات نشان میدهد که یادگیری ماشین کاربردهای گستردهای در زمینههای مختلف ازجمله پزشکی، امنیت سایبری، علوم اجتماعی، بازاریابی و مهندسی دارد. الگوریتمهای مختلف بسته به نوع کاربرد در حوزههای خاص مورد استفاده قرار گرفتهاند. برای مثال، در حوزه پزشکی، مدلهای شبکه عصبی برای تشخیص بیماریها و در پیشبینیهای مالی، مدلهای رگرسیونی به کار گرفته شدهاند.
مسیرهای آینده پژوهش با توجه به پیشرفتهای اخیر، مسیرهای پژوهشی متعددی برای آینده پیشنهاد میشود که شامل بهبود روشهای یادگیری ترکیبی، توسعه مدلهای تفسیرپذیر، بهینهسازی مصرف منابع محاسباتی و ایجاد چارچوبهای استاندارد برای یادگیری فدراتیو است. علاوه بر این، یکپارچهسازی یادگیری ماشین با فناوریهای نوظهور نظیر رایانش کوانتومی و بلاکچین ازجمله حوزههای جذاب تحقیقاتی محسوب میشود.
مطالعه حاضر با بررسی فرآیندهای یادگیری ماشین، الگوریتمها، چالشها و کاربردهای آن، چارچوب جامعی برای درک بهتر این حوزه ارائه داده است. با توجه به رشد روزافزون دادهها و نیاز به تصمیمگیریهای بهینه، اهمیت یادگیری ماشین بیشازپیش افزایشیافته و تحقیقات آینده باید بر توسعه روشهای کارآمدتر، کاهش چالشهای عملی و افزایش کارایی مدلها متمرکز شوند. همچنین تحقیقات آینده باید بر توسعه مدلهای خودنظارتی، کاهش وابستگی به دادههای برچسبگذاری شده، طراحی الگوریتمهای کممصرفتر و ایجاد چارچوبهای استاندارد برای تفسیرپذیری و اعتمادپذیری مدلها تمرکز کنند. همچنین، ادغام روشهای یادگیری ترکیبی، تقویتی و شبکههای عصبی عمیق میتواند دقت و قابلیت تعمیم مدلها را بهبود بخشد.
5. نتیجهگیری
دیجیتالی شدن و انقلاب اینترنت منجر به تولید حجم عظیمی از دادههای ساختاریافته و بدون ساختار شده است که پردازش و تحلیل آنها به ابزارهای هوشمند نیاز دارد. در این میان، یادگیری ماشینی بهعنوان یکی از محرکهای کلیدی تحول دیجیتال، نقش بیبدیلی در استخراج دانش از این دادهها ایفا کرده است. این فناوری با ارائه راهکارهایی برای حل مسائل پیچیده، بهسرعت در حوزههای مختلف علمی و صنعتی گسترشیافته و به یک زمینه پژوهشی پویا و چندرشتهای تبدیل شده است.
در این مقاله، با مرور تاریخچه و تبارشناسی یادگیری ماشین، طبقهبندی الگوریتمها، فرآیند انتخاب مدل و بررسی کاربردهای اصلی آن در حوزههای مختلف، سعی شد چشماندازی تحلیلی از وضعیت فعلی و آینده این فناوری ترسیم شود. همچنین چالشها و مزایای کلیدی یادگیری ماشین شناسایی و تحلیل گردید، چالشهایی که درعینحال، فرصتهای نوینی برای پژوهش و توسعه فراهم میکنند.
نتایج این مطالعه نشان میدهد که اگرچه یادگیری ماشینابزار قدرتمندی در حل مسائل پیچیده دنیای واقعی است، اما عدم وجود چارچوبهای انتخاب الگوریتم، مسائل مربوط به کیفیت داده، تفسیرپذیری مدلها و دغدغههای اخلاقی، موانعی اساسی در بهرهگیری کامل از ظرفیتهای آن محسوب میشوند. بااینحال، راهکارهایی همچون توسعه الگوریتمهای ترکیبی، طراحی چارچوبهای خودتوضیح و استفاده از روشهای تنظیم و پالایش دادهها، در ادبیات گذشته بهعنوان مسیرهای مؤثر شناسایی شدهاند که با یافتههای این مطالعه همخوانی دارد.
پیشنهادهای این مقاله بر پایهی یافتههای مرور شده و با تکیه بر روندهای نوظهور در هوش مصنوعی ارائه میشود:
در صنایع تولیدی، استفاده از الگوریتمهای یادگیری نظارتشده برای پیشبینی خرابی ماشینآلات و بهینهسازی نگهداری پیشگویانه توصیه میشود.
در حوزه سلامت، ترکیب یادگیری عمیق با دادههای تصویربرداری پزشکی میتواند تشخیص سریعتر و دقیقتری فراهم کند.
در سیستمهای توصیهگر، استفاده از مدلهای یادگیری تقویتی میتواند تجربه شخصیسازی کاربران را ارتقا دهد.
در حوزه انرژی، پیادهسازی الگوریتمهای یادگیری ماشین میتواند به بهینهسازی مصرف انرژی و پیشبینی بار شبکه کمک کند.
با مقایسه نتایج این مقاله با پژوهشهای قبلی مانند مطالعات Davenport (2018)، Pan (2016) و Maleki, et al. (2020)، میتوان دریافت که بسیاری از چالشهای شناساییشده در ادبیات گذشته، همچنان بهصورت حلنشده باقی ماندهاند و نیازمند توجه پژوهشی بیشتر هستند. این مقاله با ادغام و تحلیل یافتههای متنوع، تلاش کرده است تصویری جامعتر و بهروزتر ارائه دهد که میتواند راهنمایی مؤثر برای پژوهشگران، سیاستگذاران و متخصصان صنعت باشد.
در نهایت، باور ما بر این است که آینده فناوریهای نرمافزاری بدون یادگیری ماشین قابل تصور نیست. بهزودی، این تکنولوژی بهطور یکپارچه در زیرساختهای دیجیتال، خدمات سلامت، حملونقل هوشمند، آموزش، امنیت سایبری و سیستمهای مالی نفوذ خواهد کرد. الگوریتمهای ML بهواسطه اتصال مداوم به اینترنت، از بهروزرسانی آنی برخوردار خواهند شد و با درک بهتر زبان طبیعی و رفتار انسانی، میتوانند تصمیمسازی را بهگونهای انجام دهند که شباهت بیشتری به تفکر انسانی داشته باشد.
یادگیری ماشینی، اگرچه فناوریای با ریسک بالاست، اما بازده بالقوه آن در عرصههای گوناگون علمی، صنعتی و اجتماعی، بسیار چشمگیر و حیاتی است. آینده از آنِ سیستمهای هوشمند یادگیرنده است.
منابع
Albuzi, J.A., Nayyar, A., & Kumar, A. (2019). Machine Learning from Theory to Algorithms: An Overview. Journal of Physics: Conference Series, 1142.
Ahmad, F.S; Ali, L. A, (2020), “hybrid machine learning framework to predict mortality in paralytic ileus patients using electronic health records (EHRs). J. Ambient Intell. Humaniz. Comput, 2020, 12(2), 3283-3293
Avci, Hanife & Karakaya, Jale, (2023), A Novel Medical Image Enhancement Algorithm for Breast Cancer Detection on Mammography Images Using Machine Learning. Diagnostics. 13. 348. 10.3390/diagnostics13030348.
Banoula, Mayank. (2023). “Machine Learning Steps: A Complete Guide”, https://www.simplilearn.com/tutorials/machine-learning-tutorial/machine-learning-steps
Bennett, J, & Lanning, S. (2007). “The Netflix Prize”.
Bishop, C. M. (2016). Pattern recognition and machine learning. Springer.
Boukerche A, Wang J. (2020), “Machine learning-based trafc prediction models for intelligent transportation systems”. Comput Netw. 2020;181
Brown, L, & Green, K. (2023). Detecting Fake News on Social Media Using Machine Learning Techniques. International Journal of Information Management, 58, 102-113.
Brown, T.B, Mann, B, Ryder, N, Subbiah, M, Kaplan, J, Dhariwal, P, Neelakantan, A, Shyam, P, Sastry, G, Askell, A, Agarwal, S, Herbert-Voss, A, Krueger, G, Henighan, T, Child, R, Ramesh, A, Ziegler, D.M, Wu, J, Winter, C, Hesse, C, Chen, M, Sigler, E, Litwin, M, Gray, S, Chess, B, Clark, J, Berner, C, McCandlish, S, Radford, A, Sutskever, I, & Amodei, D. (2020).” Language Models are Few-Shot Learners”. ArXiv, abs/2005.14165.
Brown, Tom & Mann, Benjamin & Ryder, Nick & Subbiah, Melanie & Kaplan, Jared & Dhariwal, Prafulla & Neelakantan, Arvind & Shyam, Pranav & Sastry, Girish & Askell, Amanda & Agarwal, Sandhini & Herbert-Voss, Ariel & Krueger, Gretchen & Henighan, Tom & Child, Rewon & Ramesh, Aditya & Ziegler, Daniel & Wu, Jeffrey & Winter, Clemens & Amodei, Dario. (2020). Language Models are Few-Shot Learners. 10.48550/arXiv.2005.14165.
Cover, T and Hart, P. (1967). "Nearest neighbor pattern classification," in IEEE Transactions on Information Theory, vol. 13, no. 1, pp. 21-27, January 1967, doi: 10.1109/TIT.1967.1053964.
Craig Lev. (2024). “What is machine learning? Guide, definition and examples”, https://www.techtarget.com/searchenterpriseai/definition/machine-learning-ML
Craig Lev. (2024). “What is machine learning? Guide, definition and examples”, https://www.techtarget.com/searchenterpriseai/definition/machine-learning-ML
Davenport, T. H. (2018). “The AI advantage: How to Put the Artificial Intelligence Revolution to Work”. Cambridge, MA: MIT Press.
Dean, Jeffrey & Corrado, G.s & Monga, Rajat & Chen, Kai & Devin, Matthieu & Le, Quoc & Mao, Mark & Ranzato, Aurelio & Senior, Andrew & Tucker, Paul & Yang, Ke & Ng, Andrew. (2012). “Large Scale Distributed Deep Networks. Advances in neural information processing systems”.
DeJong, G. (1981). “Generalizations Based on Explanations”. International Joint Conference on Artificial Intelligence.
Deng J., Dong W., Socher R., Li L. -J., Kai Li and Fei-Fei Li. (2009). "ImageNet: A large-scale hierarchical image database," 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, FL, USA, 2009, pp. 248-255, doi: 10.1109/CVPR.2009.5206848.
Devarapalli, Sri. (2022). “Language Translation using Machine Learning”.
Devlin, J, Chang, M, Lee, K, & Toutanova, K. (2019). “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”. North American Chapter of the Association for Computational Linguistics.
Doe, A, & Brown, B. (2023). Machine learning algorithms in accounts receivables management. International Journal of Accounting Information Systems, 45, 100527.
Esteva, Andre & Chou, Katherine & Yeung, Serena & Naik, Nikhil & Madani, Ali & Mottaghi, Ali & Liu, Yun & Topol, Eric & Dean, Jeff & Socher, Richard. (2021). Deep learning-enabled medical computer vision. npj Digital Medicine. 4. 5. 10.1038/s41746-020-00376-2.
Forbes.com. (2021). “AutoML 2.0: Is The Data Scientist Obsolete?”. URL: https://www.forbes.com/sites/cognitiveworld/2020/04/07/automl-20-is-the-data-scientist-obsolete/?sh=63b69def53c9. Accessed Oct 8, 2021.
Gayhardt,Lauryn. Yoshioka, Hiroshi. (2024). “How to select algorithms for Azure Machine Learning”, https://learn.microsoft.com/en-us/azure/machine-learning/how-to-select-algorithms?view=azureml-api-1
Geeksforgeeks, (2024), “Machine Learning Algorithms”, https://www.geeksforgeeks.org/machine-learning-algorithms/
Goodfellow, I, Bengio, Y, & Courville, A. (2016). Deep learning (1sted.). MIT Press.
Goodfellow, Ian & Pouget-Abadie, Jean & Mirza, Mehdi & Xu, Bing & Warde-Farley, David & Ozair, Sherjil & Courville, Aaron & Bengio, Y.. (2014). “Generative Adversarial Networks. Advances in Neural Information Processing Systems”. 3. 10.1145/3422622.
Grace, K, Salvatier, J, Dafoe, A, Zhang, B, & Evans, O. (2019). “When will AI exceed human performance? Evidence from AI experts?” Journal of Artificial Intelligence Research, 62, 729-754
Hebb, D. O. (1949). “The organization of behavior; a neuropsychological theory. Wiley.
Hosseini, M, & Colleagues. (2022). Traffic condition prediction using machine learning algorithms for intercity roads. Journal of Civil Engineering, Amirkabir University of Technology, 55(1), 101-110.
Hsu, Feng-Hsiung. (1999). "IBM's Deep Blue Chess grandmaster chips," in IEEE Micro, vol. 19, no. 2, pp. 70-81, March-April 1999, doi: 10.1109/40.755469.
Jordan, M. I, & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255-260.
Khanzode, K. C. A. & Sarode, R. D. (2020). Advantages and disadvantages of artificial intelligence and machine learning: A literature review. Int. J. Libr. Inf. Sci. (IJLIS) 9, 30–36.
Kharwal, Aman, (2023), “Here’s How to Choose Machine Learning Algorithms”, https://thecleverprogrammer.com/2023/09/28/heres-how-to-choose-machine-learning-algorithms/
Khuat, T. T, Bassett, R, Otte, E, Grevis-James, A, & Gabrys, B. (2023). Applications of Machine Learning in Biopharmaceutical Process Development and Manufacturing: Current Trends, Challenges, and Opportunities. arXiv preprint arXiv:2310.09991.
Krizhevsky, Alex & Sutskever, Ilya & Hinton, Geoffrey. (2012). “ImageNet Classification with Deep Convolutional Neural Networks. Neural Information Processing Systems”. 25. 10.1145/3065386.
Kulin, M, Kazaz, T, De Poorter, E, & Moerman, I. (2021). A Survey on Machine Learning-Based Performance Improvement of Wireless Networks: PHY, MAC and Network Layer. Electronics, 10(3), 318. https://doi.org/10.3390/electronics10030318
Kumar, S, Guruparan, D, Aaron, P, Telajan, P, Mahadevan, K, Davagandhi, D, & Yue, O. X. (2023). Deep Learning in Computational Biology: Advancements, Challenges, and Future Outlook. arXiv preprint arXiv:2310.03086.
Le, Quoc & Ranzato, Marc'Aurelio & Monga, Rajat & Devin, Matthieu & Chen, Kai & Corrado, G.s & Dean, Jeff & Ng, Andrew. (2011).” Building high-level features using large scale unsupervised learning”. Proceedings of ICML. 1.
Learned Miller, E. G.(2014). Introduction to supervised learning. I: Department of Computer Science, University of Massachusetts.
Leong, Lester . (2019). “Machine Learning Pipelines: Feature Engineering Numbers”, https://towardsdatascience.com/machine-learning-pipelines-feature-engineering-numbers-29f53aaec82a
Maleki, Farhad, et al. (2020). "Overview of machine learning part 1: fundamentals and classic approaches." Neuroimaging Clinics 30.4 (2020): e17-e32.
Malone, B; Simovski, B; Moliné, C; Cheng, J; Gheorghe, M; Fontenelle, H; Vardaxis, I; Tennøe, S; Malmberg, J.A; Stratford, R; Clancy, T.(2020), “ Artificial intelligence predicts the immunogenic landscape of SARS-CoV-2 leading to universal blueprints for vaccine designs”. Sci. Rep, 2020, 10(1), 22375.
Marchand A, Marx P.(2020), “Automated product recommendations with preference-based explanations”. J Retail. 2020;96(3):328–43.
McCulloch, W.S, Pitts, W. (1943). “A logical calculus of the ideas immanent in nervous activity”. Bulletin of Mathematical Biophysics 5, 115–133. https://doi.org/10.1007/BF02478259.
Menaga, A. & Shanmugam, Vasantha. (2022). “Smart Sustainable Agriculture Using Machine Learning and AI: A Review”. 10.1007/978-981-16-7952-0_42.
Mikolov, T, Chen, K, Corrado, G.S, & Dean, J. (2013). “Efficient Estimation of Word Representations in Vector Space”. International Conference on Learning Representations.
Minsky, Marvin. (1952). “A Neural-Analogue Calculator Based Upon a Probability Model of Reinforcement.” Harvard University Psychological Laboratories, Cambridge, Massachusetts.
Moravec, H.P. (1990). “The Stanford Cart and the CMU Rover”. In: Cox, I.J, Wilfong, G.T. (eds) Autonomous Robot Vehicles. Springer, New York, NY. https://doi.org/10.1007/978-1-4613-8997-2_30
Nesajian, Minoo, (2024), “Machine Learning Algorithms You Should Know – 10 Key Algorithms for 2023,https://blog.faradars.org/ [In Persian]
Nguyen, T. T, & Reddi, S. J. (2019). Machine learning for network security. IEEE Communications Surveys & Tutorials, 21(4), 3515-3547.
Pan, Y. (2016).” Heading toward artificial intelligence 2.0”. Engineering, 2(4), 409- 413.
Radford, A, & Narasimhan, K. (2018). “Improving Language Understanding by Generative Pre-Training”.
Rahimkhani M, Gilani M. Utilizing Machine Learning to Predict Antimicrobial Resistance in Bacteria. irje 2024; 20 (1):65-68
URL: http://irje.tums.ac.ir/article-1-7331-fa.html
Ren R, Wu DD, Liu T. (2018), “Forecasting stock market movement direction using sentiment analysis and support vector machine”. IEEE SystemsJournal. 2018;13(1):760-70.
Rosenblatt, F. (1958). "The perceptron: A probabilistic model for information storage and organization in the brain". Psychological Review. 65 (6): 386–408. CiteSeerX 10.1.1.588.3775. doi:10.1037/h0042519. PMID 13602029
Sabita, Rajbanshi .(2021),Everything you need to know about Machine Learning, published, a part of the Data Science Blogathon
Samuel, A. L. (1967). "Some Studies in Machine Learning Using the Game of Checkers. II—Recent Progress," in IBM Journal of Research and Development, vol. 11, no. 6, pp. 601-617, Nov. 1967, doi: 10.1147/rd.116.0601.
Sejnowski, T.J, & Rosenberg, C.R. (1988). “NETtalk: a parallel network that learns to read aloud”.
Silver, D, Huang, A, Maddison, C. et al. (2016). “Mastering the game of Go with deep neural networks and tree search”. Nature 529, 484–489 https://doi.org/10.1038/nature16961
Smith, J. A, & Johnson, L. M. (2022). Machine learning for liquidity risk modelling: A supervisory perspective. Journal of Financial Regulation and Compliance, 30(2), 150-170.
Tan, M, & Le, Q.V. (2019). “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks”. ArXiv, abs/1905.11946.
Taigman, Y.Yang, M., M. Ranzato and L. Wolf. (2014). "DeepFace: Closing the Gap to Human-Level Performance in Face Verification," 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, USA, 2014, pp. 1701-1708, doi: 10.1109/CVPR.2014.220.
Tuia, D, Kellenberger, B, Beery, S. et al. (2022), “Perspectives in machine learning for wildlife conservation”. Nat Commun 13, 792. https://doi.org/10.1038/s41467-022-27980-y.
Turing, I. (1950). “Computing machinery and intelligence”, Mind, Volume LIX, Issue 236, October 1950, Pages 433–460, https://doi.org/10.1093/mind/LIX.236.433
Williams, R, & Patel, S. (2023). Predicting User Behavior on Social Media with Machine Learning Models. Computers in Human Behavior, 120, 106-115.
Yurushkin, Michael ,(2023) “ How do Machine Learning Pipelines Work?”, https://broutonlab.com/blog/how-machine-learning-pipelines-work/
Z. Zhang. (2012). "Microsoft Kinect Sensor and Its Effect," in IEEE MultiMedia, vol. 19, no. 2, pp. 4-10, Feb. 2012, doi: 10.1109/MMUL.2012.24.
Zhang, Y, Lu, H, Pan, B, & Wang, J. (2021). Personalized recommendation systems with deep learning: A survey. ACM Computing Surveys, 54(5), 1-34.
Zou, J, Huss, M, Abid, A, Mohammadi, P, Torkamani, A, & Telenti, A. (2019). A primer on deep learning in genomics. Nature Genetics, 51(1), 12-18.
COPYRIGHTS © 2023 by the authors. Licensee Modern Management Engineering Journal. This article is an open access article distributed under the terms and conditions of the Creative Commons Attribution 4.0 International (CC BY 4.0) (http://creativecommons.org/licenses/by/4.0/).
|
[1] 1. PhD Candidate, Department of Industrial Engineering, ST.C, Islamic Azad University, Tehran, Iran.
2. Associate Professor, Department of Industrial Engineering, ST.C, Islamic Azad University, Tehran, Iran. (Corresponding Author). A.shojaie@azad.ac.ir
3. Assistant Professor, Department of Industrial Engineering, ST.C, Islamic Azad University, Tehran, Iran.
4. Assistant Professor, Department of Industrial Engineering, ST.C, Islamic Azad University, Tehran, Iran.
5. Associate Professor, Department of Industrial Engineering, ST.C, Islamic Azad University, Tehran, Iran.
How to cite this paper: Sayyah, E., Shojaei, A., Akbari, A., Haji Rezaei, M., Tohidi, H. (2026). A Review of Machine Learning: Process, Algorithms, and Applications (A Review-Based Approach). Modern Management Engineering, 11(4),184-201. [In Persian]
[6] . دانشجوی دکتری مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
[7] . دانشیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران (نویسنده مستول). a_shojaie@azad.ac.ir
[8] . استادیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
[9] . استادیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
[10] . دانشیار گروه مهندسی صنایع، واحد تهران جنوب، دانشگاه آزاد اسلامی، تهران، ایران.
استناد: سیاح، امل؛ شجاعی، امیرعباس؛ اکبری، علی اکبر ؛ حاجی رضایی، مهدی؛ توحیدی، حمید. (1404). مروری بر یادگیری ماشین: فرآیند، الگوریتمها و کاربردها (رویکرد مروری). مهندسی مدیریت نوین، 11(4)، 184-201.
[11] .Machine Learning (ML)
[12] .Artificial Inteligence (AI)
[13] . likelihood
[14] . Stochastic neural analog reinforcement calculator(SNARC)
[15] . Perceptron
[16] . Nearest Neighbor Algorithm
[17] .Winter AI
[18] .Explanation Based-Learning (EBL)
[19] .NetTalk
[20] . Garry Kasparov
[21] . Elastic Compute Cloud(EC2)
[22] . Netflix Prize
[23] . ImageNet
[24] . ImageNet (ILSVRC)
[25] . Kinect
[26] . Jeopardy
[27] . AlexNet
[28] . Google Brain
[29] . Image Processing
[30] . word2vec
[31] OpenAI
[32] . Lee Sedol
[33] . AlphaGo
[34] . Google Lens, Google Clicks, Google Home Mini and Google Nexus
[35] . Home pod
[36] . Waymo
[37] . Google’s BERT
[38] . OpenAI’s GPT
[39] . Efficient Nets
[40] . GPT-3
[41] . DALL-E
[42] . ChatGPT
[43] . Vision Transformer
[44] . DeepMind’s Gemini
[45] .Supervised Learning
[46] . Classification
[47] . Regression
[48] .Unsupervised Learning
[49] . Clustering
[50] . Dimensionality Reduction
[51] . Association
[52] . Reinforcement Learning
[53] . Ensemble Techniques
[54] . Bagging
[55] . Boosting
[56] . Stacking
[57] .Accuracy
[58] . Training time
[59] . Number of parameters
[60] . Number of features
[61] . Size of the Dataset
[62] . Linearity
[63] . Data Quality
[64] . Overfitting