حکمرانی هوش مصنوعی و هوش مصنوعی در حکمرانی
محورهای موضوعی : مدیریت دولتی
1 - دانشگاه علامه طباطبایی
کلید واژه: هوش مصنوعی, یادگیری ماشین, حکمرانی, خطمشیگذاری عمومی, حاکمیت داده,
چکیده مقاله :
پیشرفت سریع هوش مصنوعی (AI) و یادگیری ماشین (ML) تأثیر بسزایی بر حکمرانی عمومی داشته و پرسشهای مهمی درباره شفافیت، تنظیمگری و مسئولیتپذیری این فناوریها ایجاد کرده است. این پژوهش با هدف بررسی دو بعد "حکمرانی هوش مصنوعی" و "حکمرانی بر هوش مصنوعی"، چارچوبی برای مدیریت چالشهای ناشی از این فناوری ارائه میدهد.
روش تحقیق این مطالعه فراترکیب بوده و ۳۱ پژوهش کلیدی بین سالهای ۲۰۱۵ تا ۲۰۲۳ را تحلیل کرده است. یافتهها نشان میدهد که هوش مصنوعی موجب بهبود دقت تصمیمگیری، بهینهسازی تخصیص منابع و افزایش شفافیت در حکمرانی میشود، اما همزمان چالشهایی مانند مسائل اخلاقی، نظارتی و حقوقی را به همراه دارد. در پاسخ به این چالشها، این پژوهش یک مدل سهبعدی حکمرانی هوش مصنوعی را پیشنهاد میکند که شامل ابعاد فنی، حقوقی و اخلاقی و خطمشیگذاری عمومی است.
نتایج این مطالعه میتواند به سیاستگذاران در تدوین چارچوبهای قانونی، طراحی مکانیسمهای نظارتی و استفاده مسئولانه از هوش مصنوعی در حکمرانی عمومی کمک کند. پیشنهاد میشود که دولتها علاوه بر توسعه زیرساختهای AI، روی شفافیت الگوریتمی و ارتقای پاسخگویی نهادهای تصمیمگیرنده تمرکز کنند.
The rapid advancement of Artificial Intelligence (AI) and Machine Learning (ML) has significantly impacted public governance, raising critical questions about transparency, regulation, and accountability. This study aims to examine the two dimensions of "AI governance" and "governance of AI", proposing a framework to address the challenges posed by these technologies.
The research methodology follows a meta-synthesis approach, analyzing 31 key studies published between 2015 and 2023. Findings indicate that AI enhances decision-making accuracy, resource allocation efficiency, and transparency in governance. However, it simultaneously introduces challenges related to ethical considerations, regulatory frameworks, and legal issues. In response, this study proposes a three-dimensional AI governance model, encompassing technical, legal, ethical, and public policy aspects.
The results of this study can assist policymakers in developing regulatory frameworks, designing oversight mechanisms, and ensuring the responsible integration of AI into public governance. It is recommended that governments, in addition to investing in AI infrastructure, prioritize algorithmic transparency and enhance the accountability of decision-making institutions.
Abdala, V., Ortega, F., & others. (2020). The role of multi-stakeholder approaches in AI governance: Reducing inequalities through global standards. AI & Society, 35, 927-938. https://doi.org/10.1007/s00146-020-00952-w
Agbozo, E., & Spassov, K. (2018). Establishing efficient governance through data-driven e-government. In Proceedings of the 11th International Conference on
Theory and Practice of Electronic Governance (pp. 662-664). https://doi.org/10.1145/3209415.3209513 Alexopoulos, C., Lachana, Z., Androutsopoulou, A., Diamantopoulou, V., Charalabidis, Y., & Loutsaris, M. A. (2019). How machine learning is changing e-government. In Proceedings of the 12th International Conference on Theory and Practice of Electronic Governance (pp. 354-363). https://
doi.org/10.1145/3326365.3326412 Arana-Catania, M., Van Lier, F.-A., Procter, R., Tkachenko, N., He, Y., Zubiaga, A., & Liakata, M. (2021). Citizen participation and machine learning for a better democracy. Digital Government: Research and Practice, 2(3), 1-22. https://doi.org/10.1145/3452118
Berman, E. (2018). A government of laws and not of machines. Boston University Law Review, 98, 1277
Bidhendi, A., & Mahoud, M. (2022). Application of new technologies such as machine learning in project management. Bi-Monthly Journal of Management, 32(216), 153. [in Persian]
Butcher, J., & Beridze, I. (2019). What is the state of artificial intelligence governance globally? The RUSI Journal, 164(5-6), 88-96. https://doi.org/10.1080/03071847.2019.1694260
Büthe, T., Djeffal, C., Lütge, C., Maasen, S., & von Ingersleben-Seip, N. (2022). The governance of artificial intelligence. Journal of European Public Policy, 29(11),
1751-1752. https://doi.org/10.1080/13501763.2022.2077131 Coglianese, C., & Lehr, D. (2016). Regulating by robot: Administrative decision making in the machine-learning era. Georgetown Law Journal, 105, 1147
. Coglianese, C., & Lehr, D. (2019). Transparency and algorithmic governance. Administrative Law Review, 71, 1.
Coyle, D., & Weller, A. (2020). "Explaining" machine learning reveals policy challenges. Science, 368(6498), 1433-1434. https://doi.org/10.1126/science.aba9647
Cugurullo, F., Xu, Y., & others. (2024). Predictive AI in urban governance: Balancing innovation with transparency and accountability. Urban Studies, 61(3), 567-583. https://doi.org/10.1177/00420980231183654
Del Casino Jr, V. J., House‐Peters, L., Crampton, J. W., & Gerhardt, H. (2022). The social life of robots: The politics of algorithms, governance, and sovereignty. In Machine Learning and the City: Applications in Architecture and Urban Design (pp. 603-613). https://doi.org/10.1002/9781119815075.ch43
Desouza, K. C. (2018). Delivering artificial intelligence in government: Challenges and opportunities. Public Administration Review, 78(5), 647-651. https://doi.org/10.1111/puar.12979
Fernández, A. (2023). Legal implications of artificial intelligence in governance: Proposing the i-Gov model. Journal of Information Technology & Politics, 20(2), 123-140. https://doi.org/10.1080/19331681.2022.2087836
Hariyanti, D., Janeswari, M., & others. (2023). Artificial intelligence in IT governance and public decision-making processes. Journal of Public Administration and Policy Research, 15(1), 45-58. https://doi.org/10.5897/JPAPR2023.0514
Henman, P. (2020). Improving public services using artificial intelligence: Possibilities, pitfalls, governance. Asia Pacific Journal of Public Administration, 42(4), 209-221. https://doi.org/10.1080/23276665.2020.1816188
Herm, L.-V., Heinrich, K., Wanner, J., & Janiesch, C. (2022). Stop ordering machine learning algorithms by their explainability! A user-centered investigation of performance and explainability. International Journal of Information Management, 102538. https://doi.org/10.1016/j.ijinfomgt.2022.102538 Hrnjic, E., & Tomczak, N. (2019). Machine learning and behavioral economics for personalized choice architecture. arXiv preprint arXiv:1907.02100
. Johns, F. (2021). Governance by data. Annual Review of Law and Social Science, 17, 53-71. https://doi.org/10.1146/annurev-lawsocsci-120220-074157
Laato, S., Birkstedt, T., Mäantymäki, M., Minkkinen, M., & Mikkonen, T. (2022). AI governance in the system development life cycle: Insights on responsible
machine learning engineering. In Proceedings of the 1st International Conference on AI Engineering: Software Engineering for AI (pp. 113-123). https://doi.org/10.1145/3522664.3528622
Lazazzara, A., Tims, M., & De Gennaro, D. (2020). The process of reinventing a job: A meta-synthesis of qualitative job crafting research. Journal of Vocational Behavior, 116, 103267. https://doi.org/10.1016/j.jvb.2019.01.001
Li, X., Fan, Y., & others. (2023). Integrating AI into local governance in China: Data consolidation and policy innovation for efficient public services. Public Management Review, 25(4), 601-620. https://doi.org/10.1080/14719037.2022.2063833
Maas, M. M. (2021). Artificial intelligence governance and the need for international cooperation. International Studies Review, 23(3), 876-902. https://doi.org/10.1093/isr/viaa064
Mulligan, D. K., & Bamberger, K. A. (2019). Procurement as policy: Administrative process for machine learning. Berkeley Technology Law Journal, 34, 773. https://doi.org/10.15779/Z38TX35853
Perboli, G., & Arabnezhad, E. (2021). A machine learning-based DSS for mid and long-term company crisis prediction. Expert Systems with Applications, 174, 114758. https://doi.org/10.1016/j.eswa.2021.114758
Pourezat, A. A., Rafiei, S., Momenzadeh, P., & Koklan, N. (2019). Return of rationality; Application of artificial intelligence in governance and public policy-making. Administrative Studies and Research, 3, 8-18. [in Persian]
Reddy, S., Allan, S., Coghlan, S., & Cooper, P. (2020). A governance model for the application of AI in health care. Journal of the American Medical Informatics Association, 27(3), 491-497. https://doi.org/10.1093/jamia/ocz192
Rodolfa, K. T., Lamba, H., & Ghani, R. (2021). Empirical observation of negligible fairness-accuracy trade-offs in machine learning for public policy. Nature Machine Intelligence, 3(10), 896-904. https://doi.org/10.1038/s42256-021-00396-x
Ruz, G. A., Varas, S., & Villena, M. (2013). Policy making for broadband adoption and usage in Chile through machine learning. Expert Systems with Applications, 40(17), 6728-6734. https://doi.org/10.1016/j.eswa.2013.06.019
Schneider, J., Abraham, R., Meske, C., & Vom Brocke, J. (2022). Artificial intelligence governance for businesses. Information Systems Management, 1-21. https://doi.org/10.1080/10580530.2022.2025215
Sehatbakhsh, N., Daw, E., Savas, O., Hassanzadeh, A., & McCulloh, I. (2020). Security and privacy considerations for machine learning models deployed in the government and public sector (white paper). arXiv preprint arXiv:2010.05809
. Sepasspour, A. (2023). Global AI governance challenges: Speed, scale, and geopolitical pressures. Technology in Society, 72, 102145. https://doi.org/10.1016/j.techsoc.2022.102145
Sghaier, A. (2022). Machine learning-based modelling of economic growth and quality of governance: The MENA region
. Stirling, J. (2001). Thematic networks: An analytic tool for qualitative research. Qualitative Research, 1(3), 385-405. https://doi.org/10.1177/146879410100100307
Tabassum, N., & Khan, M. I. (2019). Design an empirical framework for sentiment analysis from Bangla text using machine learning. In 2019 International Conference on Electrical, Computer and Communication Engineering (ECCE) (pp. 1-5). https://doi.org/10.1109/ECACE.2019.8679141
Tallberg, J., Erman, E., & others. (2023). The emerging global governance of artificial intelligence: Exploring the research agenda. Global Policy, 14(1), 5-17. https://doi.org/10.1111/1758-5899.13179
Tiwana, A., Konsynski, B., & Venkatraman, N. (2013). Information technology and organizational governance: The IT governance cube. Journal of Management Information Systems, 30(3), 7-12. https://doi.org/10.2753/MIS0742-1222300301
Vazan, M. (2021). Machine learning and data science: Foundations, concepts, algorithms and tools. Miad Andisheh. [in Persian]
Veale, M., & Brass, I. (2019). Administration by algorithm? Public management meets public sector machine learning. https://doi.org/10.2139/ssrn.3337859
Wang, L., & Alexander, C. A. (2016). Machine learning in big data. International Journal of Mathematical, Engineering and Management Sciences, 1(2), 52-61. https://doi.org/10.33889/IJMEMS.2016.1.2-006
Artificial Intelligence in Governance
And
The Governance of Artificial Intelligence1
Amirabbas Sadeghian
PhD Student, Public Administration / Public Policy, Allameh Tabataba'i University,
Tehran, Iran.
ORCID: 0009-0002-1136-2173
Received: 21 February 2025 | Revised: 03 March 2024 | Accepted: 04 April 2025
[1] https://doi.org/10.71815/jnapa.2025.1200094
The rapid advancement of Artificial Intelligence (AI) and Machine Learning (ML) has significantly impacted public governance, raising critical questions about transparency, regulation, and accountability. This study aims to examine the two dimensions of "AI governance" and "governance of AI", proposing a framework to address the challenges posed by these technologies.
The research methodology follows a meta-synthesis approach, analyzing 31 key studies published between 2015 and 2023. Findings indicate that AI enhances decision-making accuracy, resource allocation efficiency, and transparency in governance. However, it simultaneously introduces challenges related to ethical considerations, regulatory frameworks, and legal issues. In response, this study proposes a three-dimensional AI governance model, encompassing technical, legal, ethical, and public policy aspects.
The results of this study can assist policymakers in developing regulatory frameworks, designing oversight mechanisms, and ensuring the responsible integration of AI into public governance. It is recommended that governments, in addition to investing in AI infrastructure, prioritize algorithmic transparency and enhance the accountability of decision-making institutions.
Keywords: Artificial Intelligence; Machine Learning; Governance; Public Policy; Data Governance
Extended Abstract
Introduction
The increasing integration of Artificial Intelligence (AI) and Machine Learning (ML) in governance has reshaped decision-making processes, public service delivery, and policy implementation. While AI-driven technologies offer significant advantages—such as improved efficiency, enhanced forecasting, and data-driven decision-making—they also pose challenges related to ethical concerns, accountability, and regulatory oversight. The lack of a comprehensive governance framework for AI raises concerns about bias, transparency, and the unintended consequences of automated decision-making in the public sector.
This study aims to explore two key dimensions: the governance of AI and the role of AI in governance. The research problem arises from the need to establish structured mechanisms that ensure AI’s responsible and effective integration into public administration while safeguarding ethical and legal considerations. The rapid adoption of AI in various governance applications has outpaced regulatory developments, leading to gaps in oversight and policy formulation.
Existing literature highlights both the transformative potential and risks associated with AI governance. Studies indicate that AI enhances precision in policymaking, yet concerns over data privacy, fairness, and the interpretability of AI-driven decisions remain unresolved. Previous research has primarily focused on individual aspects of AI in governance, such as predictive analytics or algorithmic bias, without providing a holistic governance model.
Therefore, this study seeks to address this gap by conducting a meta-synthesis of AI governance literature, systematically analyzing key policy challenges and proposing a structured governance framework. The findings will contribute to the theoretical and practical discourse on AI governance, offering recommendations for policymakers to develop regulatory and ethical safeguards while leveraging AI's potential for public benefit.
Theoretical Framework
The governance of Artificial Intelligence (AI) and its application in public administration necessitate a structured approach that integrates technological advancements with ethical, legal, and policy considerations. AI governance can be understood through the interplay of regulatory mechanisms, institutional oversight, and algorithmic accountability (Schneider et al., 2022). Previous studies emphasize that AI-driven decision-making requires transparency, interpretability, and mechanisms for human oversight to mitigate risks such as bias and unintended consequences (Butcher & Beridze, 2019). A well-defined conceptual framework for AI governance should include ethical AI principles, public sector AI applications, and governance models that ensure responsible AI deployment while balancing innovation with regulatory safeguards (Fernández, 2023).
This study adopts a meta-synthesis approach to construct a comprehensive governance framework that aligns AI capabilities with public policy objectives. Drawing on the work of Sepasspour (2023) and Ortega et al. (2020), this framework incorporates three key dimensions: (1) regulatory frameworks and legal compliance to address ethical concerns and data privacy, (2) institutional mechanisms for AI oversight and decision-making transparency, and (3) the integration of AI-driven analytics in governance models to enhance public service efficiency. By analyzing existing literature and case studies, this research aims to refine AI governance strategies and provide policymakers with structured guidelines for responsible AI adoption.
Methodology
This study employs a meta-synthesis approach, systematically reviewing existing literature on AI governance and its implementation in public administration. The research follows a structured protocol for data collection, focusing on peer-reviewed articles, policy reports, and case studies from authoritative databases such as Scopus, Web of Science, and Google Scholar, covering the years 2015–2023. The study population consists of scholarly research and policy documents, with a sample of 31 selected sources based on relevance, citation impact, and methodological rigor.
Data collection was conducted using systematic keyword searches, focusing on terms such as AI governance, public policy, machine learning in governance, and algorithmic decision-making. Qualitative content analysis was applied to identify recurring themes, trends, and governance challenges. To ensure reliability, Cohen’s Kappa coefficient was used to assess inter-coder agreement in data coding. The findings were synthesized to develop a conceptual governance framework, highlighting regulatory, ethical, and policy-related dimensions of AI implementation in governance. This methodological approach ensures a comprehensive, structured, and replicable analysis, contributing to the growing discourse on AI’s role in public administration.
Discussion and Results
The findings of this study reveal that the integration of Artificial Intelligence (AI) and Machine Learning (ML) in governance significantly enhances decision-making precision, public service efficiency, and resource allocation. AI-driven predictive models improve government responsiveness by anticipating public needs and optimizing service delivery. The analysis indicates that governments worldwide are increasingly adopting AI technologies, yet challenges persist in ensuring transparency, accountability, and regulatory compliance. Ethical concerns, particularly related to algorithmic bias, data privacy, and fairness, remain key obstacles to AI governance. Furthermore, the study highlights that while AI improves administrative efficiency, a lack of comprehensive regulatory frameworks can lead to unintended consequences, such as discriminatory decision-making or reduced human oversight (Schneider et al., 2022; Fernández, 2023).
In discussing these findings, it becomes evident that a balanced governance approach is necessary—one that fosters innovation while maintaining ethical safeguards and public trust. Existing governance frameworks often lack adaptability to the rapid advancements in AI, leading to policy gaps that must be addressed through proactive regulation and interdisciplinary collaboration. Moreover, successful AI governance requires strong institutional mechanisms, ensuring that AI-driven decisions remain interpretable and accountable. The study underscores the need for governments to invest in AI oversight bodies, develop standardized ethical guidelines, and promote transparency through algorithmic audits. These measures can help bridge the gap between AI’s potential and its responsible implementation in governance.
Conclusion
This study highlights the transformative role of Artificial Intelligence (AI) in governance, demonstrating its potential to enhance decision-making, efficiency, and public service delivery. However, challenges such as ethical concerns, regulatory gaps, and algorithmic transparency persist. The findings underscore the need for comprehensive governance frameworks that balance AI innovation with accountability and public trust. Governments must prioritize regulatory oversight, ethical AI deployment, and institutional transparency to ensure responsible AI integration. Future research should focus on developing adaptable governance models that address the evolving nature of AI technologies while safeguarding democratic and ethical principles.
Contribution of authors
All authors have participated in this research in equal proportion..
Acknowledgments
The authors sincerely appreciate the support of the Tehran University Governance Think Tank, Professor. Ali-Asghar Pourezat, and Dr. Mahyar Hassani for their invaluable contributions to this research and the writing of this article.
Ethical approval
This study complies with all ethical research standards.
Conflict of interest
No conflicts of interest are declared by the authors.
هوش مصنوعی در حکمرانی و حکمرانی هوش مصنوعی1
تاریخ دریافت: 03/12/ 1403 تاریخ ویرایش:13 /12/1403 تاریخ پذیرش:15/01/1404
امیرعباس صادقیان
دانشجوی دکتری، مدیریت دولتی / خطمشیگذاری عمومی، علامه طباطبایی، تهران، ایران.
ORCID: 0009-0002-1136-2173
چکیده
پیشرفت سریع هوش مصنوعی (AI) و یادگیری ماشین (ML) تأثیر بسزایی بر حکمرانی عمومی داشته و پرسشهای مهمی درباره شفافیت، تنظیمگری و مسئولیتپذیری این فناوریها ایجاد کرده است. این پژوهش با هدف بررسی دو بعد "حکمرانی هوش مصنوعی" و "حکمرانی بر هوش مصنوعی"، چارچوبی برای مدیریت چالشهای ناشی از این فناوری ارائه میدهد.
روش تحقیق این مطالعه فراترکیب بوده و ۳۱ پژوهش کلیدی بین سالهای ۲۰۱۵ تا ۲۰۲۳ را تحلیل کرده است. یافتهها نشان میدهد که هوش مصنوعی موجب بهبود دقت تصمیمگیری، بهینهسازی تخصیص منابع و افزایش شفافیت در حکمرانی میشود، اما همزمان چالشهایی مانند مسائل اخلاقی، نظارتی و حقوقی را به همراه دارد. در پاسخ به این چالشها، این پژوهش یک مدل سهبعدی حکمرانی هوش مصنوعی را پیشنهاد میکند که شامل ابعاد فنی، حقوقی و اخلاقی و خطمشیگذاری عمومی است.
نتایج این مطالعه میتواند به سیاستگذاران در تدوین چارچوبهای قانونی، طراحی مکانیسمهای نظارتی و استفاده مسئولانه از هوش مصنوعی در حکمرانی عمومی کمک کند. پیشنهاد میشود که دولتها علاوه بر توسعه زیرساختهای AI، روی شفافیت الگوریتمی و ارتقای پاسخگویی نهادهای تصمیمگیرنده تمرکز کنند.
کلمات کلیدی: هوش مصنوعی، یادگیری ماشین، حکمرانی، خطمشیگذاری عمومی، حاکمیت داده
1- مقدمه
در سال 1956 میلادی، دانشمندان علوم رایانه از سراسر ایالات متحـده آمریکا، در کالج دراتموث در همپشایرنو، گردهم آمدند تا درباره شاخه جدیدي از دانـش رایانـه کـه بعـدها ((هـوشمصـنوعی)) نامیده شد؛ بحث کنند. ایـن همایش تاریخی، در دهههاي بعد زمینهساز پژوهش دولت و صنعت درباره هوش مصنوعی و حوزههاي مـرتبط بـا آن شـد و پیشرفتهایی را در ادراك، استدلال و برنامهریزي خودکار، سیستمهاي شناختی، یادگیري ماشین، ((پـردازش زبـان طبیعـی)) 2 و رباتیک، سبب ساز شدند (Pourazat et al., 2019). علاقه به هوش مصنوعی از اواخر دهه 1950 به دلیل عملکرد ضعیف ((الگوریتمها))3 و زیرساختهای محاسباتی، مراحل چرخهای انتظار و نا امیدی را پشتسر گذاشته است. با این حال، ظهور زیرساختهای محاسباتی مناسب، دادههایبزرگ* و الگوریتمهای ((یادگیری عمیق))4 علاقه به فناوری هوش مصنوعی را دوباره تقویت کرده و پذیرش آن را در بخشهای مختلف، تسریع کرده است .(Reddy et al, 2020)
هوش مصنوعی (AI) به عنوان یک زمینه ضروری در تحقیق و عمل ظاهر شده است، به طوری که در مورد ایالات متحده آمریکا، پیشبینی شدهاست که سرمایهگذاری 38 میلیارد دلار در سال 2019، به رقم حدودا 100 میلیاردلار در سال 2023 رسیده باشد. در حالی که هوش مصنوعی تکنیکهای زیادی را در بر میگیرد، در یک زمینهی خاص، هوش مصنوعی به عنوان سیستمهایی شناخته میشود که از نمونهها یاد میگیرند، یعنی این سیستمها زیرشاخهای از هوش مصنوعی بهعنوان (( یادگیری ماشین )) نامیده میشوند (Schneider et al, 2022) . مساله اصلی این است که کشورها نباید غافل شوند.
یادگیری ماشین، زیر شاخهای از هوش مصنوعی است که بر فعالکردن سیستمهای محاسباتی برای یادگیری از دادههای خاص تمرکز دارد. برای باهوش بودن، سیستمی که در یک محیط در حال تغییر است، باید بتواند یاد بگیرد. در چنین حالتی طراحان نیازی به پیشبینی تمام موقعیتهای ممکن نخواهند داشت.
یادگیری ماشینی، یکی از مهمترین اختراعات نوآورانه و مزیت رقابتی در مشاغل امروزی محسوب میشود؛ طبق گفتهی (Accenture, 2018)، یادگیری ماشینی میتواند هزینهها را بین ۲۰ تا ۲۵ درصد در بانکداری، عملیات فناوری اطلاعات، زیر ساخت و نگهداری کاهش دهد و درآمد جدیدی در زمینه محصولات و خدمات ایجاد کند. با توجه به رشد روزافزون فناوریهای یادگیری ماشینی و سازگاری بیشتر سازمانها با این فناوری، مدیران در تمام سطوح باید تکنیکهای یادگیری ماشین را بیاموزند تا با استفاده از مجموعه پروژههای یادگیری ماشین، بیشترین ارزش را برای سازمانهای خود ایجاد کنند (Bidehendi & Mahood, 2022).
با توجه به پتانسیلهای فناوری یادگیری ماشین، فرصتهای زیادی وجود دارد که میتواند به نفع دولتها و بخشهای عمومی باشد تا از یادگیری ماشین در عرصههای مختلف حکمرانی بهره ببرند (Sehatbakhsh et al, 2020).
مطالعات موجود درباره حکمرانی هوش مصنوعی عمدتاً به ابعاد فناورانه، مقرراتی و اخلاقی پرداختهاند، اما مدلی جامع که همزمان چالشهای سیاستگذاری، حقوقی و اجرایی را در کنار هم تحلیل کند، بهطور نظاممند توسعه نیافته است. پژوهشهای پیشین یا به امکانسنجی استفاده از هوش مصنوعی در حکمرانی پرداختهاند یا بر چارچوبهای نظارتی و اخلاقی تمرکز کردهاند، درحالیکه این پژوهش با یکپارچهسازی این رویکردها، یک مدل سهبعدی حکمرانی هوش مصنوعی را ارائه میکند. یافتههای این پژوهش میتوانند در سه حوزه اصلی کاربرد داشته باشند:
1. سیاستگذاری عمومی: کمک به تنظیم قوانین و دستورالعملهای اجرایی برای بهرهگیری از AI در فرآیندهای حکومتی.
2. بهبود کارایی خدمات عمومی: ارائه راهکارهایی برای استفاده از هوش مصنوعی در بهینهسازی تصمیمگیریهای دولتی، تخصیص منابع و شفافیت اداری.
3. مدیریت ریسک و نظارت: پیشنهاد یک چارچوب حکمرانی تطبیقپذیر که به نهادهای نظارتی در کنترل و ارزیابی الگوریتمهای تصمیمگیری کمک میکند
با توجه به اهمیت موضوع، ایران باید در دو حوزهی به کارگیری هوش مصنوعی در حکمرانی و حکمرانی هوش مصنوعی، یه طور فعالانهای عمل کند. هدف از این پژوهش، بنا نهادن بحث در دو حوزهی بیان شده است تا بتواند مورد توجه قرار گیرد.
2- ادبیات تحقیق
حکمرانی هوش مصنوعی به یکی از موضوعات کلیدی در مطالعات سیاستگذاری و حقوقی تبدیل شده است. بوچر و بریتزه (Butcher & Beridze, 2019) بر اهمیت حکمرانی مؤثر در مقابله با چالشهای اخلاقی و تضمین توسعه پایدار فناوریهای هوش مصنوعی تأکید دارند. آنها فعالیتهای کنونی در این حوزه را در بخشهای مختلف بررسی کرده و چارچوبهای بالقوهای را برای هدایت تلاشهای آینده پیشنهاد دادهاند.
بته، جفول و همکاران (Büthe, Djeffal et al., 2022) با برجسته کردن چالشهای حکمرانی ناشی از هوش مصنوعی استدلال میکنند که تمرکز بر کاربردهای این فناوری، بهجای خود آن، میتواند به بهبود حکمرانی و کاهش ریسکهای مرتبط کمک کند. ماس (Maas, 2021) نیز ابعاد اخلاقی، سیاسی، حقوقی و امنیتی حکمرانی هوش مصنوعی را بررسی کرده و نشان داده است که گستره وسیع کاربردهای این فناوری، از تشخیص چهره تا سلاحهای خودمختار، حکمرانی آن را پیچیدهتر میکند.
تالبرگ، ارمَن و همکاران (Tallberg, Erman et al., 2023) بر ضرورت تدوین یک دستورکار پژوهشی برای درک و شکلدهی به معماری نوظهور حکمرانی جهانی هوش مصنوعی تأکید دارند. سپاسپور (Sepasspour, 2023) چالشهای جهانی حکمرانی هوش مصنوعی را از منظر سرعت، مقیاس و عدم قطعیت توسعه این فناوری، و همچنین فشارهای ژئوپلیتیکی بر نظامهای چندجانبه بررسی کرده است. یافتههای این مطالعه نشان میدهد که هیچ مدل حکمرانی واحدی برای هوش مصنوعی کفایت نمیکند و نیاز به چارچوبهای متنوع و تطبیقپذیر احساس میشود. علاوه بر این، عبدالا، اورتگا و همکاران (Abdala, Ortega et al., 2020) بر اهمیت رویکرد چندذینفعی در حکمرانی هوش مصنوعی تأکید کرده و نقش همکاریهای فراملی و استانداردهای جهانی را در کاهش نابرابریها برجسته ساختهاند.
در سال 2025 ، مطالعهای توسط (Johnson et al., 2025)منتشر شد که به بررسی نقش هوش مصنوعی در بهبود شفافیت و پاسخگویی در حکمرانی شهری میپردازد. این پژوهش نشان میدهد که استفاده از الگوریتمهای یادگیری ماشین در مدیریت شهری میتواند به کاهش انعطافپذیری اداری و افزایش مشارکت شهروندان کمک کند. با این حال، نویسندگان هشدار میدهند که عدم وجود قوانین شفاف و سازوکارهای نظارتی میتواند به کاهش اعتماد عمومی و بروز تبعیض الگوریتمی منجر شود.
تحقیقات اخیر بر پیامدهای حقوقی هوش مصنوعی در حکمرانی تمرکز داشته و مدل i-Gov را مورد بررسی قرار دادهاند (Fernández, 2023). در حوزه حکمرانی شهری، استفاده از هوش مصنوعی پیشبینانه برای مدیریت آینده، با نگرانیهایی درباره شفافیت و پاسخگویی همراه بوده است .(Cugurullo, Xu et al., 2024) همچنین، پژوهشهای دیگری به بررسی نقش هوش مصنوعی در حکمرانی فناوری اطلاعات و فرآیندهای تصمیمگیری دولتی پرداختهاند (Hariyanti, Janeswari et al., 2023).
در نهایت، مطالعهای موردی در چین نشان میدهد که ادغام هوش مصنوعی در حکمرانی محلی، از طریق یکپارچهسازی دادهها و نوآوریهای سیاستی، به ارائه خدمات عمومی کارآمدتر منجر شده است .(Li, Fan et al., 2023) نتایج پژوهشهای ذکر شده، بر لزوم توسعه چارچوبهای مقرراتی منعطف، یکپارچهسازی ملاحظات اخلاقی در هوش مصنوعی، همکاریهای جهانی، نوآوری در بخش عمومی و مدیریت ریسکهای مرتبط با این فناوری تأکید دارند.
ارزش یادگیری ماشینی از توانایی آن در یادگیری نحوه تشخیص الگوهای مفید در مجموعه دادههای عظیم و کنار هم قراردادن اطلاعات به روشهایی که پیشبینیها یا برآوردهای بسیار دقیقی را به همراه دارد، ناشی میشود .(Coglianese & Lehr, 2019) اساسا، الگوریتمهای یادگیری ماشینی برای پیشبینی5 استفاده میشوند. در یادگیری ماشینی، محقق نیازی به مشخصکردن شکل عملکردی خاصی از یک مدل ریاضی از قبل ندارد. در عوض، این الگوریتمها به خود دادهها اجازه میدهند تا نحوهی موجود بودن اطلاعات را تعیین کنند. اهمیت محوری یادگیری ماشینی، این است که چگونه الگوریتمها برای ایجاد پیشبینیهای خود، ((یاد میگیرند)). این الگوریتمها پیشبینی های خود را برای بهینهسازی معیارهای مشخص به تدریج اصلاح میکنند.
الگوریتم:
یک الگوریتم در یادگیری ماشین، تشخیص الگو و یادگیری را از دادهها انجام میدهد. برای سادهتر شدن موضوع، میتوان رابطه بین آنها را به شکل زیر نشان داد (Vazan, 2021) :
مدل یادگیری ماشین → الگوریتم یادگیری ماشین
الگوریتمها | نوع الگوریتمها | مشخصه الگوریتمها | خطمشی* یادگیری | الگوریتمهای یادگیری | طبقهبندی |
---|---|---|---|---|---|
درخت تصمیم | تشخیصی - تفکیکی | درخت طبقهبندی | تخمین حداکثر احتمال تنظیمشده | انتخاب ویژگی، تولید، هرس کردن | سیاست IF-THEN بر اساس درختان |
ماشین بردارپشتیبانی 6 غیرخطی (مبتنی بر libsvm) | تشخیصی - تفکیکی | جداسازی ابر صفحه - ترفند هسته | به حداکثر رساندن حاشیه نرم | الگوریتم بهینه سازی حداقل متوالی (SMO) | حداکثر طبقهبندی نمونههای آزمایشی |
SVM خطی (مبتنی برliblinear) | تشخیصی - تفکیکی | جداسازی ابر صفحه | به حداکثر رساندن حاشیه نرم | روش دوگانه متوالی | حداکثر وزندهی نمونه آزمون |
گرادیان تقویتی 7 | تشخیصی - تفکیکی | ترکیب خطی از طبقهبندی (بر اساس درختتصمیم) | به حداقل رساندن افت | الگوریتم نزول گرادیان تصادفی | ترکیب خطی حداکثر ضعفهای وزن دادهشدهی طبقهبندی کننده |
بیز سادهی طبقهبندیکننده 8 | مولد | توزیع مشترک ویژگی ها و کلاس آن ها، فرض مستقل مشروط | حداکثر احتمال، حداکثر احتمال پسین | محاسبات احتمالی | حداکثر احتمال پسین |
*اصطلاحاتی همچون خطمشی، استراتژی، سیاست و ابزار، در علم یادگیری ماشین، معنا و کاربرد متفاوتی نسبت به علم خطمشیگذاری و حکمرانی دارد.
ارزش الگوریتمهای یادگیری ماشین معمولا به الگوریتمهای سطحی و عمیق گروهبندی میشوند. الگوریتمهای سطحی معمولا به انتخاب ویژگیهای مرتبط برای آموزش مدل نیاز دارند. کلاسهای رایج الگوریتمهای سطحی، رگرسیون خطی، درخت تصمیم و ماشینهای بردار پشتیبان هستند (Wang et al, 2018; Herm et al, 2022).
مدل:
یک مدل در یادگیری ماشین، خروجی یک الگوریتم یادگیری ماشین است که بر روی دادهها اجرا میشود. برای نشان دادن بهتر موضوع ، میتوان از رابطه زیر استفاده کنیم:
مدل یادگیری ماشین = دادههای مدل + الگوریتم پیشبینی
خانواده الگوریتمها | خطی | دقیق | آسان به تفسیر | مقیاسپذیر | الگوریتمها |
مدلهای خطی | بله | خیر | بله | بله | رگرسیون خطی و رگرسیون لجستیک |
مدلهای پایهای | احتمالا | خیر | بله | احتمالا | بیز ساده، DT، KNN |
مدلهای گروهی | خیر | بله | بله | بله | RF, AdaBoost, |
SVM | خیر | بله | خیر | خیر | SVM |
یادگیری عمیق | خیر | بله | خیر | بله | MLP طبقهبندیکننده |
در شکل 1، چارچوب کلی یادگیری ماشین را میتوان بررسی کرد.
شکل 1 – چارچوب کلی سازوکار یادگیری ماشین، برداشت شده از (Vazan, 2021)
روشهای یادگیری ماشین:
1. یادگیری نظارتی 9 : دادهها برچسبگذاری میشوند و متغیر ورودی و خروجی، وجود دارد.
2. یادگیری غیر نظارتی10 : دادهها برچسبدار نیستند. به عبارت دیگر، سیستم، خروجی مناسب را ندارد و متغیر خروجی وجود ندارد، اما دادهها را کاوش کرده و میتواند از مجموعه دادهها، استنباطهایی را برای توصیف ساختارهای پنهان از دادههای بدون برچسب بدست آورد.
3. یادگیری نیمهنظارتی 11 : حد واسطی بین یادگیری نظارتی و غیرنظارتی است.
4. یادگیری تقویتی 12 : یک عامل سعی میکند یک مساله را با آزمایش و خطا از طریق تعامل با محیطی که پویایی آن برای عامل ناشناخته است، حل کند. یادگیری تقویتی وابسته به فراگیری دادهها نیست و به جای تجزیه و تحلیل دادهها، بر یافتن یک سیاست بهینه متمرکز است (Vazan, 2021).
جدول 3 - خلاصهای از روشهای یادگیری ماشین و مقایسهی آن، برداشت شده از (Vazan, 2021)
شاخص | یادگیری بانظارت | یادگیری بدون نظارت | یادگیری تقویتی |
تعریف | از طریق مجموعه دادهی دارای برچسب، یاد میگیرد. | بدون راهنما از طریق دادههای | در تعامل با محیط کار میکند. |
نوع دادهها | دادههای برچسبدار | دادههای بدون برچسب | بدون تعریف داده |
نوع مساله | دستهبندی و رگرسیون | قوانین انجمنی و خوشهبندی | مبتنیبر پاداش |
ناظر | ناظر اضافی | بدون ناظر | بدون ناظر |
هدف | نگاشت دادههای ورودی به | کشف الگو | آموختن یک سری اقدامات |
بوم(اکوسیستم 13 ) یادگیری ماشین:
در بوم یادگیری ماشین(شکل2)، چهار نقش اصلی وجود دارد:
1. شرکتکنندگان 14 : یک یا گروهی از نهادهای دولتی یا خصوصی و یا شهروندان هستند که دادههای آموزشی را ارائه میدهند.
2. دولت، ارائهدهندگان خدمات و مدل 15 : یک پلتفرم، هنگامی که مدل آموزش داده شد، مولفههای آن )به عنوان مثال، وزنها و ساختار مدل یادیگری ماشین) را نیز نگهداری میکند. علاوه بر این، ارائه دهنده نیز به عنوان یک سرور عمل میکند و یک رابط برای مدل فراهم میکند تا برای پیشبینی استفاده شود.
3. توسعهدهندگان و کارشناسان حوزهی هوش مصنوعی 16 : موجودی و نهادی است که با ارائه الگوریتمها و فراپارامترهای آموزشی برای آموزش مدل، با سرور تعامل دارد.
4. کاربران 17: شخص یا نهادهایی مانند بیمارستانها، سازمانهای حملونقلی یا سیستمآموزشی و غیره است که با مدل آموزش دیده، تعامل دارد و دادههای خود را با استفاده از مدل یادگیری ماشینی، پردازش میکند (Sehatbakhsh et al, 2020).
حاکمیت و حکمرانی
امروزه یادگیری ماشینی در اطراف ما وجود دارد و مقامات دولتی18 که از اختیارات تصمیمگیری گسترده برخوردار هستند، باید پیشبینیهای یادگیری ماشین را به عنوان یک ابزار ارزشمند بپذیرند.
یکی از زمینههایی که این ابزارها در آن نفوذ قابل توجهی دارند، در زمینه امنیت ملی و اجرای قانون است "ITEM-1","itemData":{"author":[{"dropping-particle":"","family":"Berman","given":"Emily","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Bul rev.","id":"ITEM-1","issued":{"date-parts":[["2018"]]},"page":"1277","publisher":"HeinOnline","title":"A government of laws and not of machines","type":"article-journal","volume":"98"},"uris":["http://www.mendeley.com/documents/?uuid=aa1c7c1c-7715-45a4-925e-0e34e1a13d25"]}],"mendeley":{"formattedCitation":"(Berman, 2018)","plainTextFormattedCitation":"(Berman, 2018)","previouslyFormattedCitation":"(Berman, 2018)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Berman, 2018). اما هنوز سطح بالایی از عدم اطمینان در مورد اینکه چگونه فناوری هوش مصنوعی میتواند به طور موثر برای ایجاد ارزش در سازمانها استفاده شود، وجود دارد (Schneider et al, 2022).
فناوریهای دیجیتال جدید به سرعت در حال تغییر چشم انداز برای ارائه خدماتعمومی19 هستند و فرآیندهای تصمیمگیری اداری خودکار در حال گسترش است؛ با وجود هوش مصنوعی (از طریق یادگیری ماشین) راههای ظریفتری برای تصمیمگیری در شرایط پیچیده ارائه میشود. :"2327-6665","author":[{"dropping-particle":"","family":"Henman","given":"Paul","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Asia Pacific Journal of Public Administration","id":"ITEM-1","issue":"4","issued":{"date-parts":[["2020"]]},"page":"209-221","publisher":"Taylor & Francis","title":"Improving public services using artificial intelligence: possibilities, pitfalls, governance","type":"article-journal","volume":"42"},"uris":["http://www.mendeley.com/documents/?uuid=bc13572c-2fb4-4961-9073-742e710862f8"]}],"mendeley":{"formattedCitation":"(Henman, 2020)","plainTextFormattedCitation":"(Henman, 2020)","previouslyFormattedCitation":"(Henman, 2020)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Henman, 2020)، سه شکل مختلف از عملکرد یادگیری ماشین را در تصمیمگیری بخش عمومی بیان کرد:
1. شناسایی الگوها : به دلیل ظرفیت پردازش کلانداده، هوش مصنوعی میتواند الگوهایی را که از ذهن انسانها دور میماند، شناسایی کند.
2. دستهبندی جمعیتها 20: یادگیری ماشینی در زمینهی تقسیمبندی و دستهبندی جمعیتها، دولتها را قادر میسازد تا هدفگذاری منابع و خدمات را برای مقابله بهتر با چالشهای خاص افزایش دهد و باعث کارایی دولت و صرفه جویی در هزینهها شود.
3. پیشبینی: هوش مصنوعی همچنین برای مدلسازی پیشبینی تقاضا استفاده میشود، که این مدیران را قادر میسازد منابع را با دقت بیشتری هدایت کنند.
محققان استدلال کردهاند که در سالهای اخیر، فناوریها برخی از مسیرهای مدیریت عمومی جدید21 را به حکمرانی دوران دیجیتال تغییر دادهاند. آنها به روندهایی مانند ادغام مجدد دیجیتالی خدمات، شیوههای به اشتراکگذاری داده با هدف ایجاد یک سرویس ((یک مرحلهای))22 و ((تماموکمال)) 23 با حداقل جمعآوری اطلاعات مکرر، اشاره میکنند و به طور خلاصه در مورد ظهور علاقه به ((فناوری های لمسی صفر))24 - که امروزه اغلب به عنوان تصمیمگیری خودکار شناخته میشود - حرف میزنند. این ادغام تحولات فناوری دیجیتال در بخشعمومی باعث شده است که برخی ادعا کنند که تغییر فناوری بر ظرفیت اداری در سازمانهای عمومی تأثیر میگذارد.
به منظور درک اینکه چگونه دولتها به طور فزایندهای توسط الگوریتمها، مدیریت و حکمرانی میکنند، باید به دو نوع اصلی سیستم (یعنی خودکاری و تقویتی) که از یادگیری ماشین برای اهداف عملیاتی استفاده میکنند، اشاره کرد.
1. سیستمهای خودکاری25 : سیستمهای اتوماسیون تلاش میکنند تا ((کمیت یا کارایی عملیات روزمزه بخش عمومی))26 را از طریق محاسبات افزایش دهند. در اینجا، یادگیری ماشینی برای فعال کردن اتوماسیون کارهایی استفاده میشود که دارای عناصر پیچیده هستند، اما نتیجهای ساده و نسبتا عینی دارند (Smith et al, 2010).
2. سیستمهای تقویت 27 : این دسته دوم از راهحلهای تکنولوژیکی، از این باور ناشی میشود که یادگیری ماشین نه تنها به ارزانشدن یا تسریع تصمیمگیری کمک میکند، بلکه میتواند آن را بهبود بخشد. ماهیت سیستمهای تقویت الگوریتمی، ظرفیتتحلیلی28 است، که قرار است بهبود یابد؛ به ویژه در زمینهی دادههای اداری 29 مرتبط.
استفاده از یادگیری ماشینی در بخش عمومی رو به افزایش است. نهادها در تمام سطوح دولت به طور فزایندهای از سیستمهای اتوماسیون و تقویت برای افزایش کارایی عملیات بخش عمومی یا حمایت از تصمیمگیری عمومی 30 برای مسائل و برنامههای پیچیده استفاده میکنند (Veale & Brass, 2019).
حکمرانی سهسطحی
1. کلان: ایجاد حقوق و تعهدات فردی فرابخشی جدید که مستلزم مهارتها و ظرفیتهای اداری جدید به منظور ارزیابی کامل پیامدهای مورد نظر و ناخواسته یادگیری ماشینی بر ارزشهای عمومی تثبیتشده دقت، انصاف، شفافیت و برابری است.
2. میانه: توسعه روشهای پویاتر برای اندازهگیری، نظارت و ارزیابی ورودیها، پردازش اطلاعات، خروجیها، نتایج و تأثیرات برنامههای عمومی با استفاده از یادگیری ماشین، که معیارهای عملکرد بخش عمومی، کیفیت و ارزیابی ریسک را به چالش میکشد.
3. خرد: ظهور تنشهای جدید بین مشروعیت تصمیمهای الگوریتمی مورد استفاده در ارائه خدمات خطمقدم، صلاحدید بوروکراتهای سطحخیابان31 هنگام به کارگیری، ارزیابی یا نادیدهگرفتن تصمیمهای خودکار و((حقوق موضوعهی دادهها)) 32، زمانی که این فرآیندها برای اطلاع از تخصیص کالاها و خدمات عمومی 33 و اختیار بوروکراتهای سطح خیابان، استفاده میشوند.
حکمرانی الگوریتمی 34
حاکمیت الگوریتمی میتواند خواستههای قانونی و عمومی35 برای شفافیت36 را برآورده کند و در عین حال، دقت، کارایی و حتی مشروعیت بالقوه 37 را در دولت افزایش دهد. به طور خاص، پیشرفت در فناوری یادگیری ماشینی یا هوشمصنوعی (که یادگیری ماشینی زیرمجموعه آن است) آیندهای را به تصویر میکشد که در آن بسیاری از تصمیمات دولتی دیگر توسط افراد گرفته نمیشود، بلکه توسط الگوریتمهای پردازششده توسط کامپیوتر انجام میشود id":"ITEM-1","itemData":{"author":[{"dropping-particle":"","family":"Coglianese","given":"Cary","non-dropping-particle":"","parse-names":false,"suffix":""},{"dropping-particle":"","family":"Lehr","given":"David","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Admin. L. Rev.","id":"ITEM-1","issued":{"date-parts":[["2019"]]},"page":"1","publisher":"HeinOnline","title":"Transparency and algorithmic governance","type":"article-journal","volume":"71"},"uris":["http://www.mendeley.com/documents/?uuid=51cddb1a-619d-4597-bf16-a68568e3e534"]}],"mendeley":{"formattedCitation":"(Coglianese & Lehr, 2019)","plainTextFormattedCitation":"(Coglianese & Lehr, 2019)","previouslyFormattedCitation":"(Coglianese & Lehr, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Coglianese & Lehr, 2019).
حکمرانی الگوریتمی مجموعهای از کنشگران انسانی و غیر انسانی38 ، اعم از مادی و گفتمانی است. حکمرانی الگوریتمی شامل سه مرحله است (Del Casino Jr et al, 2022) :
1. تولید دادههای دوگانه و کلانداده: به عنوان مثال، حرکات صورت به دادههای آماری تبدیل میشود. در اینجا، دادهها با سلب مالکیت انباشته میشوند، همچنین این مرحله، شامل استخراج، جایگزینی، حمایت یا بازنمایی است.
2. تولید خودکار دانش: در این مرحله که با یادگیری ماشین و عینیت مطلق مشخص میشود، پایگاهدادهها به دست میآیند و تشکیل میشوند.
3. اقدام بر روی رفتارها: تمایلات و رفتارهای فردی را پیشبینی کرده و مورد حمایت واقع یا از آنها جلوگیری و با پروفایلها ارتباط برقرار میشود.
امروزه، بیشتر کاربردهای دولتی یادگیری ماشین، تعیینکننده اقدامات نهایی نیستند. به عنوان مثال، الگوریتمهای یادگیری ماشینی برای هدایت افسران پلیس به سمت مناطق با جرم بالا استفاده شده است، اما نه برای تعیین اینکه چه کسی را دستگیرکنند. با پیشرفت تکنیکهای یادگیری ماشینی و گسترش ((زیرساختهای دادهپشتیبان))39 ، نقش الگوریتمها در دولت احتمالا گسترش مییابد؛ نه تنها میتوان به زودی از یادگیری ماشینی برای روشهای تعیینکنندهتر استفاده کرد، بلکه میتوان این کار را به طورکلی انجام داد تا دو نوع تصمیم متفاوت به دست آورد: قضاوت و مقررات -particle":"","family":"Lehr","given":"David","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Admin. L. Rev.","id":"ITEM-1","issued":{"date-parts":[["2019"]]},"page":"1","publisher":"HeinOnline","title":"Transparency and algorithmic governance","type":"article-journal","volume":"71"},"uris":["http://www.mendeley.com/documents/?uuid=51cddb1a-619d-4597-bf16-a68568e3e534"]}],"mendeley":{"formattedCitation":"(Coglianese & Lehr, 2019)","plainTextFormattedCitation":"(Coglianese & Lehr, 2019)","previouslyFormattedCitation":"(Coglianese & Lehr, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Coglianese & Lehr, 2019).
3- روش تحقیق
روش فرا مطالعه، یکی از شیوههای نوین برای بررسی، تلفیق و نقد پژوهشهای پیشین است. این روش، تحلیلی عمیق از تحقیقات انجام شده را ارائه میدهد و شامل چهار بخش میشود: فرا تحلیل (بررسی کمّی محتوا)، فراروش (واکاوی متدولوژی مطالعات اصلی)، فرا نظریه (تحلیل تئوریهای پژوهشهای اولیه) و فراترکیب (تحلیل کیفی محتوای اصلی) (Stirling, 2001).
فراترکیب، به عنوان یک روش کیفی، از یافتههای سایر مطالعات کیفی مرتبط با موضوع تحقیق بهره میگیرد. این شیوه برای درک و توصیف مسائل، نکات اصلی و مضامین تکرارشونده در یک جریان پژوهشی به کار میرود. فراترکیب، نتایج حاصل از مطالعات کیفی سیستماتیک منتخب با موضوعات مشابه و مشترک را ترکیب کرده و تفسیر میکند (Lazazzara & De Gennaro, 2020). در ذیل، گامهای پژوهش توضیح داده میشود.
گام اول، طرح سوال : هر پژوهشی با یک پرسش آغاز میگردد. پرسش اصلی این پژوهش این بوده است که نقش یادگیری ماشین در حکمرانی چیست و چه مفاهیم و کاربردی برای آن به کار رفته است؟
گام دوم، مرور ادبیات: برای انجام این پژوهش مسئلهمحور که با نگاه فراترکیب، انجام گرفته است، در گام اول، برای یافتن منابع، 57 پژوهش و مطالعهی انجامگرفته حول کلمات کلیدی همچون ((یادگیری ماشین))، ((هوش مصنوعی))، ((یادگیری ماشین و حکمرانی))، ((یادگیری ماشین و خطمشیگذاری عمومی))، ((یادگیری ماشین و مدیریت دولتی))، در عمدهترین پایگاههای داده یعنی ((اسکوپوس، گوگل اسکولار، پروکوئست و ساینسدایرکت))، جستوجو شدند.
گام سوم، انتخاب منابع: در این گام، پژوهشها مورد بررسی و ارزیابی قرار گرفتند و سعی شد که مرتبطترین، بهترین و جدیدترین آنها گزینش شوند و در نهایت، پژوهشگر به انتخابی از نتایج و موضوعات پرداخته و از آنها در این مقاله، بهره گرفته است. معیارهایی که برای وارد و خارج ساختن مقالات از این پژوهش مد نظر قرار گرفتهاند، در ذیل آورده میشود:
· مقالات و گزارشهای منتشرشده در نشریات علمی معتبر و پایگاههای دادهای مانند Scopus، Web of Science، و Google Scholar.
· پژوهشهایی که بین سالهای ۲۰۱۵ تا ۲۰۲5 منتشر شدهاند.
· مطالعاتی که به حکمرانی هوش مصنوعی، سیاستگذاری عمومی در حوزه AI، و تنظیمگری داده و الگوریتمها پرداختهاند.
· مقالاتی که فاقد روششناسی مشخص بوده یا صرفاً مرور کلی بر موضوع انجام دادهاند.
· مطالعاتی که صرفاً بر ابعاد فنی و مهندسی هوش مصنوعی تمرکز داشته و به ملاحظات حکمرانی توجه نکردهاند.
گام چهارم، استخراج و تجزیه و تحلیل اطلاعات: در نهایت، تعداد 31 منبع انتخاب شده، چندین بار به دقت مورد مطالعه قرار گرفتند و بر طبق پرسش اصلی پژوهشی، محتوا و موضوع پژوهشها بررسی و مورد تجزیه و تحلیل قرار گرفتند. برای تجزیه و تحلیل دادهها، این پژوهش از تحلیل محتوای کیفی استفاده کرده است. ابتدا، مقالات منتخب بر اساس کدگذاری باز و محوری تحلیل شدهاند. سپس، مضامین کلیدی شناسایی و بهصورت طبقهبندیشده در مدل مفهومی پژوهش گنجانده شدهاند
گام پنجم، کنترل پایایی و روایی: برای سنجش پایایی یافتهها در این مرحله از ضریب کاپای کوهن استفاده شده است. ضریب کاپا عددی بین که هرچه به 1+ نزدیکتر باشد، بیانگر توافق بیشتر و مستقیم است. برای محاسبه پایایی کدگذاریها در این روش، پژوهشگران (پژوهشگر اصلی و مدعو) به کدگذاری مقالات منتخب پرداختند و ضریب کاپا 0.66 به دست آمد که مقدار قابل قبول و معتبری است. روایی همگرا با مقایسه تطبیقی یافتهها با مطالعات پیشین و روایی محتوا توسط بررسی دو خبره در عرصه خطمشیگذاری مورد بررسی قرار گرفته است.
4- یافتهها
این پژوهش با استفاده از روش فراتحلیل (Meta-Analysis) و ابزار تحلیل محتوای کیفی، مطالعات پیشین در زمینه حکمرانی هوش مصنوعی را بررسی کرده و الگوهای مشترک را استخراج نموده است. تحلیل محتوای کیفی بهعنوان ابزار اصلی، در سه مرحله اجرا شده است:
کدگذاری باز (Open Coding):
· در این مرحله، متون مقالات منتخب خط به خط بررسی شدند تا مفاهیم کلیدی مربوط به حکمرانی هوش مصنوعی شناسایی شوند.
· برای افزایش دقت، عبارات کلیدی مرتبط با تنظیمگری، پاسخگویی، شفافیت، و اجرای AI در سیاستگذاری استخراج شد.
کدگذاری محوری (Axial Coding):
· پس از استخراج مفاهیم اولیه، دستهبندی و مقایسه مطالعات انجام شد تا مضامین کلیدی مشخص شوند.
· تحلیلها نشان داد که مطالعات پیشین حول سه محور اصلی قابل دستهبندی هستند:
ابعاد مقرراتی (قوانین و دستورالعملهای کنترل AI)
ابعاد اجرایی (مدیریت و پیادهسازی AI در سیاستگذاری عمومی)
ابعاد نظارتی و اخلاقی (مکانیسمهای پاسخگویی و شفافیت در استفاده از AI)
کدگذاری انتخابی (Selective Coding):
در این مرحله، یافتههای فراتحلیل با یافتههای تحلیل محتوای کیفی ترکیب شد تا مدل سهبعدی حکمرانی AI شکل گیرد.
برای رسیدن به این مهم، ابتدا باید از سازمان شروع کرد، چراکه سر آغاز هر سه محور اصلی میباشد.
سازمانها
حکمرانی هوش مصنوعی سازمانی (که یادگیری ماشینی سازمانی زیرمجموعه آن است)، به عنوان سیستمی از قوانین، شیوهها، فرآیندها و ابزارهای فنآوری است که برای اطمینان از همسویی استفاده سازمان از فناوریهای هوش مصنوعی با استراتژیها، اهداف و ارزشهای سازمان، استفاده میشود. ادبیات گستردهتر، این تعریف را پیشنهاد میکند و نشان میدهد که حکمرانی هوش مصنوعی مستلزم عناصر اجتماعی، اخلاقی، قانونی و فنی است. یکی از محبوبترین مفهومسازیهای حکمرانی هوش مصنوعی یک مدل لایهای است که تعامل بین جامعه و سیستمهای هوش مصنوعی (به طور خاص یادگیری ماشینی) را نشان میدهد. این مدل شامل سه لایه متقابل است که در آن، لایه فنی نشاندهنده شالوده است و به دنبال آن لایه اخلاقی و لایه اجتماعی و قانونی در بالاتر قرار دارد. دامنه لایهی فنی40 حاکمیتی به سه بخش اصلی تقسیم شده است: داده، مدل و سیستم.
نیازهای حاکمیت یادگیری ماشینی مرتبط با داده ممکن است در مراحل اصلی مدیریت شوند: 1) کسب داده، 2) تمیز دادن، 3) استفاده و استفاده مجدد، 4) انتشار و 5) حفظ یا تخریب. دادهها، بخشی جداییناپذیر از سیستمهای یادگیریماشین هستند؛ بنابراین، حاکمیت منابع داده برای اطمینان از حکمرانی جامع یادگیری ماشین بسیار مهم است.
حاکمیت یادگیری ماشین مرتبط با مدل، به دلیل داشتن مدل های پیچیده که قابلیت توضیح ضعیفی دارند، بیاهمیت است. مدلها را میتوان با آزمایشهای مختلف آزمایش کرد که از عملکرد مطلوب آن اطمینان حاصل شود. هر چه مدلها قدرتمندتر و مفیدتر باشند، توضیح آن به طور کلی دشوارتر است.
سومین جنبه حاکمیت یادگیری ماشینی، در لایه فنی، مربوط به سیستم میشود که گستردهترین و سختترین دسته است، زیرا شامل کل اکوسیستم فناوری اطلاعات است که مدلها و خطوط داده مرتبط، درآن قرار دارند.
(Laato et al, 2022). سازمان باید انتخاب خود از متغیر نتیجه و تابعهدف41 را آشکار و توجیه کند. انتخاب یک تابعهدف و طراحی یک الگوریتم، لزوما مستلزم ایجاد مبادلاتی است که مستلزم قضاوت سیاست است. سازمانها همچنین باید اعتبارسنجی کنند که الگوریتم مطابق آنچه مدنظر است، عمل میکند و به اهداف موجه دست مییابد یا خیر "itemData":{"author":[{"dropping-particle":"","family":"Coglianese","given":"Cary","non-dropping-particle":"","parse-names":false,"suffix":""},{"dropping-particle":"","family":"Lehr","given":"David","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Admin. L. Rev.","id":"ITEM-1","issued":{"date-parts":[["2019"]]},"page":"1","publisher":"HeinOnline","title":"Transparency and algorithmic governance","type":"article-journal","volume":"71"},"uris":["http://www.mendeley.com/documents/?uuid=51cddb1a-619d-4597-bf16-a68568e3e534"]}],"mendeley":{"formattedCitation":"(Coglianese & Lehr, 2019)","plainTextFormattedCitation":"(Coglianese & Lehr, 2019)","previouslyFormattedCitation":"(Coglianese & Lehr, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Coglianese & Lehr, 2019).
حاکمیت داده 42
پلتفرمها و الگوریتمها، حداقل تا حدی، محصولات دادهها هستند (به هماناندازه که نتایج طراحی یا سرمایهگذاری هستند، حاصل دادهها نیز هستند). جریان دادههای دیجیتالی، آموزش و بازآموزی43، الگوریتمهای یادگیریماشین را حفظ میکند. نشانداده شده است که دادههای دیجیتال، عاملهای اجتماعی و حقوقی را تشکیل میدهند و آنها را اصلاح میکنند یا نقش مهمی در اصلاح و تأثیرگذاری آنها دارند؛ همچنین دادههای دیجیتالی، روابط اجتماعی و حقوقی را احیا میکنند، دوباره به نمایش میگذارند و تغییر شکل میدهند .(Johns, 2021)
در جدول 4، چند دسته از دادههایی که در زمینهی حکمرانی توسط یادگیری ماشین، میتوانند به کار برده شوند را، میتوان مشاهده کرد.
جدول 4 – دادههای به کار رفته در یادگیری ماشینی در زمینهی حکمرانی، برداشت شده از ":false,"suffix":""}],"id":"ITEM-1","issued":{"date-parts":[["2022"]]},"title":"Machine Learning Based Modelling of Economic Growth and Quality of Governance: The MENA Region","type":"article-journal"},"uris":["http://www.mendeley.com/documents/?uuid=630737cd-5b07-43a4-9256-d5f7356ee149"]}],"mendeley":{"formattedCitation":"(Sghaier, 2022)","plainTextFormattedCitation":"(Sghaier, 2022)","previouslyFormattedCitation":"(Sghaier, 2022)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Sghaier, 2022).
نوع داده | تعریف | منبع |
رشداقتصادی | تولیدناخالص داخلی به قیمت خریدار، مجموع ارزش افزوده ناخالص همه تولیدکنندگان مقیم در یک اقتصاد به اضافه هرگونه مالیات بر محصول و منهای یارانه هایی است که در ارزش محصولات لحاظ نشده است. | https://donnees.banquemondiale.org/ |
فساد | درک میزان اعمال قدرت عمومی برای منافع خصوصی و همچنین تسخیر دولت توسط نخبگان و منافع خصوصی را نشان میدهد | https://databank.banquemondiale.org/ |
اثربخشی دولت 44 | درک کیفیت خدمات عمومی، کیفیت خدمات ملکی و میزان استقلال آن از فشارهای سیاسی، کیفیت تدوین و اجرای سیاست، اعتبار و تعهد دولت به این سیاستها رادر بر میگیرد. | https://databank.banquemondiale.org/ |
ثبات سیاسی و عدم وجود خشونت/ تروریست 45 | تصورات احتمال بیثباتی سیاسی و یا خشونت با انگیزه سیاسی، از جمله تروریسم را اندازهگیری میکند. | https://databank.banquemondiale.org/ |
کیفیت تنظیمگری 46 | درک توانایی دولت برای تدوین و اجرای سیاستها و مقررات صحیح که توسعه بخش خصوصی را قادر میسازد و آن را ارتقا میدهد، به تصویر میکشد. | https://databank.banquemondiale.org/ |
حکمفرمایی قانون 47 | درک میزان اعتماد و اطاعت کارگزاران به قوانین اجتماعی و به ویژه کیفیت اجرای قرارداد، حقوق مالکیت، پلیس و دادگاهها و همچنین احتمال وقوع جرم وخشونت را نشان میدهد. | https://databank.banquemondiale.org/ |
گوشسپاری و پاسخگویی 48 | درک میزان مشارکت شهروندان یک کشور در انتخاب دولت خود و همچنین آزادی بیان و آزادی انجمن و آزادی رسانهها. | https://databank.banquemondiale.org/ |
سازوکارهای حکمرانی 49
در زمینهی سازوکارهای حکمرانی، بر شش بخش زیر، تاکید میشود:
1- تقویت همکاری بین عملکردها 2- ساختارسازی و رسمیکردن 50 مدیریت هوش مصنوعی از طریق یک چارچوب 3- تمرکز بر یادگیری ماشین به عنوان یک ((دارایی راهبردی))51 4- تعریف اینکه چگونه و چه کسی تصمیم میگیرد 5- توسعه مصنوعات پشتیبان 52 (سیاست، استانداردها و رویه ها) 6- نظارت
ازمنظر حکمرانی، تعریف یادگیری ماشین درسه حوزه، جذاب و طبیعی است: داده، مدل، و سیستم.
در زمینهی سازوکارهای حاکمیتی، (یگران, 2022)","manualFormatting":"Schneider و دیگران, 2022)","plainTextFormattedCitation":"(Schneider و دیگران, 2022)","previouslyFormattedCitation":"(Schneider و دیگران, 2022)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}Schneider et al, 2022) ، چارچوب مفهومی ( شکل 3) را ارائه دادند.
· مقدمات و پیشزمینهها 53 : عوامل داخلی یا خارجیای که بر حاکمیت یادگیری ماشین و کاربرد آن در حکمرانی تأثیر میگذارد را توصیف میکند
· نتایج و پیآمدها 54 : نتایج و پیآمدها، حاکمیت یادگیری ماشین را توصیف میکنند که میتوانند مستقیما یا به طور غیر مستقیم با اهداف یک سازمان مرتبط باشد.
· سازوکارهای ساختاری 55 : ساختارهای گزارشدهی، نهادهای حاکمیتی و مسئولیتپذیری. آنها شامل 1) نقشها و مسئولیتها و 2) تخصیص اختیارات تصمیمگیری 56 میشوند.
شکل 3 – چارچوب مفهومی حکمرانی یادگیری ماشین، برداشت شده از (یگران, 2022)","manualFormatting":"Schneider و دیگران, 2022)","plainTextFormattedCitation":"(Schneider و دیگران, 2022)","previouslyFormattedCitation":"(Schneider و دیگران, 2022)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}Schneider et al, 2022)
· سازوکارهای رویهای 57 : هدف سازوکارهای رویهای این است که تضمین کنند سیستمهای هوش مصنوعی و مدلهای یادگیری ماشینی به درستی و کارآمد عمل میکنند، به طور ایمن نگهداری میشوند و عملکرد آنها مطابق قانون است و الزامات و سیاستهای داخلی سازمانها و شرکتها در مورد توضیح پذیری، انصاف، مسئولیتپذیری، امنیت و ایمنی رعایت میشود و تحقق مییابد.
· سازوکارهای رابطهای58: سازوکارهای حاکمیت رابطهای، همکاری بین ذینفعان را تسهیل میکند. آنها شامل 1) ارتباطات، 2) آموزش و 3) هماهنگی تصمیمگیری59 میشوند و همچنین نیاز به برقراری ارتباط در یک تیم بینرشتهای یادگیریماشینی و استفاده از یک پلت فرم توسعه مشترک را پیشنهاد میکند.
· محدوده موضوع 60 : این بعد مربوط به آن چیزی است که بر آن حکومت میشود، یعنی مصنوعات فناوری اطلاعات )مدلها و سیستمها( و محتوا )داده( را پوشش میدهد.
· محدوده(دامنه) سازمانی 61 : دامنه سازمانی وسعت حاکمیت را بر حسب نهادها تعریف میکند. محدوده درون سازمانی به حاکمیت در یک سازمان واحد اشاره دارد، در حالی که حوزه بین سازمانی، یه حاکمیت بین چندین سازمان اشاره دارد. حکمرانی یادگیری ماشینی در داخل دامنه سازمانی، به کیفیت و یکپارچگی دادهها، مدلها و سیستمها مربوط میشود و در دامنه بین سازمانی، به خواستههای چندگانه.
· اهداف 62 : برنامههای حکومت را در یک یا چند حوزه، همانطور که در شکل خلاصه شده است، مورد توجه قرار میدهد.
مکعب حکمرانی هوش مصنوعی
یگران, 2022)","manualFormatting":"(Schneider و دیگران, 2022)","plainTextFormattedCitation":"(Schneider و دیگران, 2022)","previouslyFormattedCitation":"(Schneider و دیگران, 2022)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Schneider et al, 2022) ، در نتیجهگیری خود، مکعب حکمرانی هوش مصنوعی( و به تبع آن، یادگیری ماشینی) را ارائه دادند.
شکل 4 – مکعب حکمرانی هوش مصنوعی( و زیرمجوعهی آن، یادگیری ماشینی)، برگفته از (Schneider et al, 2022 ) |
1. حکمرانی بر چه کسی؟ 63 این بعد دامنه یا گستردگی حاکمیت را نشان میدهد و تقریبا با واحد تحلیل مطابقت دارد.
2. حکمرانی بر چه چیزی؟ 64 بعد دوم به آنچه بر آن حاکم است، مربوط میشود، یعنی مصنوعات مانند سختافزار و نرمافزار، محتوای آن مصنوعات )مانند دادهها واطلاعات(، یا سهامداران و ذینفعان درگیر در تولید و مصرف آنها است.
3. چگونه حکمرانی کردن؟ 65 بعد سوم نشاندهنده سازوکارهای مورد استفاده برای حکومت است. این موضوعات میتواند تخصیص حقوق تصمیمگیری، سازوکارهای کنترل رسمی و غیررسمی را شامل شود (یگران, 2013)","manualFormatting":"Tiwana و دیگران, 2013).","plainTextFormattedCitation":"(Tiwana و دیگران, 2013)","previouslyFormattedCitation":"(Tiwana و دیگران, 2013)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}Tiwana et al, 2013) .
زیرساخت و ساخت و ملزومات
برای اینکه الگوریتمهای یادگیری ماشینی کار کنند، به دادههای قابل دسترسی و قابل تجزیه و تحلیل بستگی دارند. در این راستا، بسیاری از سازمانها، اهمیت به اصطلاح کلانداده ها یا حجم زیادی از اطلاعات را به روشهایی درک میکنند "","parse-names":false,"suffix":""},{"dropping-particle":"","family":"Lehr","given":"David","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Geo. LJ","id":"ITEM-1","issued":{"date-parts":[["2016"]]},"page":"1147","publisher":"HeinOnline","title":"Regulating by robot: Administrative decision making in the machine-learning era","type":"article-journal","volume":"105"},"uris":["http://www.mendeley.com/documents/?uuid=e8bbc091-2ca4-48fa-9e03-dca9a840a011"]}],"mendeley":{"formattedCitation":"(Coglianese & Lehr, 2016)","plainTextFormattedCitation":"(Coglianese & Lehr, 2016)","previouslyFormattedCitation":"(Coglianese & Lehr, 2016)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Coglianese & Lehr, 2016).
تصمیمگیری منطقی در مورد پذیرش سیستم یادگیری ماشینی هم به تخصص موضوعی عمیق نیاز دارد، هم به زمینهای کلیدی برای تفویض اختیار برای اجرا و اجرای قوانین به سازمان ها و فرآیندهایی که تضمین میکند که سیاستهای تعبیهشده در طراحی سیستم برای کارکنان سازمان و همچنین برای عموم و شاخههای سیاسی برجسته هستند. ":false,"suffix":""},{"dropping-particle":"","family":"Bamberger","given":"Kenneth A","non-dropping-particle":"","parse-names":false,"suffix":""}],"container-title":"Berkeley Tech. LJ","id":"ITEM-1","issued":{"date-parts":[["2019"]]},"page":"773","publisher":"HeinOnline","title":"Procurement as policy: Administrative process for machine learning","type":"article-journal","volume":"34"},"uris":["http://www.mendeley.com/documents/?uuid=1887be6d-46cc-474b-a21b-8da1a4fdbe4d"]}],"mendeley":{"formattedCitation":"(Mulligan & Bamberger, 2019)","plainTextFormattedCitation":"(Mulligan & Bamberger, 2019)","previouslyFormattedCitation":"(Mulligan & Bamberger, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Mulligan & Bamberger, 2019).
از دو ابزار حیاتی برای ایجاد رویه و تقویت مشارکت عمومی66 ، نظارت سیاسی67 و مشارکت آگاهانه سازمان، هم در طراحی و هم در استقرار سیستم استفاده میشود (Mulligan & Bamberger, 2019) :
1. نهادی: تلاش برای ایجاد مراکز تخصصی یا دانش فنی مشترک باید آغاز شود که الگویی برای رویکرد سیستمیتر به جهت استفاده از فناوری در فعالیتهای دولتی، ارائه دهد. ایجاد تخصص مورد نیاز برای پشتیبانی از ارائه اطلاعات دیجیتال (به عنوان مثال، داده یا محتوا) و خدمات تراکنش (مانند فرمهای آنلاین و برنامههای کاربردی مزایا) در انواع پلتفرمها، دستگاهها و سازوکارهای تحویل (مانند وبسایتها، برنامههای کاربردی تلفن همراه و شبکههای اجتماعی و رسانهها)
2. فنی: تنها زمانی باید از فناوری برای حکمرانی استفاده کرد که یک سازمان به تخصص فنی مرتبط و توانایی در نظر گرفتن دامنه وسیعی از ارزشهای عمومی که ممکن است در استفاده از فناوری برای تنظیم دخیل باشد، دسترسی داشته باشد.
مزایا و چالشها (معایب و محدودیتها)
جدول 5، فواید و مزایای پذیرش یادگیری ماشین را که در موضوعات خاص مربوط به خدمات دولتی، تجزیه و تحلیل شدهاست، خلاصه میکند.
جدول 5 – مزایای بلقوهی یادگیری ماشین در حوزهی خدمات عمومی و حکمرانی، برداشت شده از (یگران, 2019)","manualFormatting":"Alexopoulos و دیگران, 2019)","plainTextFormattedCitation":"(Alexopoulos و دیگران, 2019)","previouslyFormattedCitation":"(Alexopoulos و دیگران, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}Alexopoulos et al, 2019)
موضوع | جزئیات |
---|---|
بهرهوری 68 | یادگیریماشین نه تنها تجزیه و تحلیل دادههای بزرگ دولتی را خودکار میکند، بلکه میتواند پاسخهای مبتنی بر دادهها را به سؤالات آزاردهنده ارائه دهد و حتی میتواند به ایجاد نظریههای جدید کمک کند. |
دقت | نتایج سیستمهای یادگیری ماشین ، صرفنظر از تکنیکهای مورد استفاده، دقیقتر هستند. |
کارایی و روند سادهسازی 69 | یادگیری ماشین روشی سادهتر و سریعتر برای طبقهبندی خودکار برای تجزیه و تحلیل دادهها در مقایسه با فرآیند دستی است که با کاهش هزینه و پیچیدگی فرآیندهای جایگزین، زمان و تلاش قابل توجهی را صرفهجویی میکند |
انعطافپذیری 70 | تلاشهای یادگیری ماشین عمدتا به حوزههای مختلف بهویژه به کاربردهای تأثیرگذارتر در جامعه مانند مراقبتهای بهداشتی، بحران انرژی، آموزش، امنیت غذایی، صید بیش از حد، آلودگی محیط زیست، بحران مهاجرت، شهرنشینی و امنیت آب اختصاص دارد. |
چند بعدی بودن 71 | دادههای چند بعدی و چندگانه را میتوان از طریق یادگیری ماشین در محیطهای پویا یا حتی در محیطهای نامشخص مدیریت کرد. |
آمیخته و همیار بنیان - یادگیری مبتکرانه 72 | روشهای جدید یادگیری ماشین میتوانند به طور مشترک با انسان در تجزیه و تحلیل مجموعه دادههای پیچیده کار کنند. ماشینها میتوانند اطلاعات را از دادههای انبوه استخراج کنند در حالی که انسانها میتوانند فرضیههای جدیدی را پیشنهاد کنند و بر اساس اطلاعات استخراجشده از ماشینها توضیحاتی را تولید کنند. |
استفاده از دادهها | یک سیستم یادگیریماشین میتواند در مورد استفاده و بهره برداری از دادهها سودمند باشد |
بهبود مداوم | سیستمهای یادگیری ماشین با استفاده از دادههای تاریخی، قابلیت ((خودبهبودی)) مستمر را دارند. |
مقیاسپذیری | تکنیکهایی وجود دارد که میتوان از آنها، در مدلهای یادگیری ماشین دوباره نیز استفاده کرد. |
جدول 6، چالشهای استفاده از یادگیریماشین در خدمات دولتی را به طور خلاصه بیان میدارد.
جدول 6 – چالشهای بلقوهی یادگیری ماشین در حوزهی خدمات عمومی و حکمرانی، برداشت شده از (یگران, 2019)","manualFormatting":"Alexopoulos و دیگران, 2019)","plainTextFormattedCitation":"(Alexopoulos و دیگران, 2019)","previouslyFormattedCitation":"(Alexopoulos و دیگران, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}Alexopoulos et al, 2019)
موضوع | جزئیات |
---|---|
مسائل مربوط به حریم خصوصی و اخلاقی | در بسیاری از موارد (به عنوان مثال مراقبتهای بهداشتی) جمعآوری دادههای شخصی، مالکیت دادههای شخصی و مزایای پردازش آنها منجر به مسائل مربوط به حریم خصوصی و اخلاقی میشود. |
ترکیبی از تکنیکهای مختلف ML | در بسیاری از موارد، بر اساس اینکه چه اقدامی باید انجام شود و چه زمانی باید انجام شود، تکنیکهای مختلف یادگیری ماشین برای استخراج نتایج بهتر مورد نیاز است، بنابراین در بسیاری از موارد ممکن است زمان قابل توجهی برای انتخاب، مورد نیاز باشد. |
مسائل حقوقی GDPR)) | به جمعآوری و پردازش دادهها از جامعه بستگی دارد. این دادهها، در بسیاری از موارد، به صراحت حساس هستند (به عنوان مثال، منشاء نژادی، مذهبی، دادههای بهداشتی، منشاء قومی). |
کیفیت و کمیت دادهها | فقدان داده (دادههای جغرافیایی) یا حتی دادههای قابل دسترسی ممکن است یک مشکل باشد و در موارد پیشبینی، موانعی وجود دارد که باعث کاهش کیفیت و کمیت سیستم یادگیری ماشین میشود. |
دادههای بدون ساختار | اگر زبانهای منطقهای مختلف را در نظر بگیریم، دادههای بدون ساختار یک چالش بزرگ در استفاده از یادگیری ماشین هستند. |
تفسیر نتایج 73 | چالشی برای تعیین اثربخشی الگوریتمهای یادگیری ماشین است. تفسیر ممکن است مناسب نباشد و تابع عامل انسانی باشد. |
سر بار اطلاعات 74 | قدرت محاسباتی در ترکیب با دادههای بزرگ، بازده کمتری دارد زیرا فرآیندهای یادگیری ماشین باید قادر به حذف و نادیده گرفتن دادهها برای حفظ زمان باشند، چون زمان محاسبات باید محدود و معقول باشند. |
ناهمگونی دادهها 75 | ناهمگونی دادهها (مانند سبکهای نوشتاری یا واژگان مختلف) یک چالش برای یادگیری ماشین است زیرا میتواند منجر به نتایج اشتباه شود. |
کاربردها و مصداقها
الف) کاربردها
1. باتوجه به اینکه پارادایم غالب یادگیری ماشینی مبتنی بر بهینهسازی است، استفاده از آن در تصمیمگیریهای خطمشی به بحثی اساسی در مورد رفاه اجتماعی مرتبط میشود. استفاده از سیستمهای یادگیری ماشینی در زمینههای سیاسی، استفاده از بهینهسازی را گسترش میدهد "“Explaining” machine learning reveals policy challenges","type":"article-journal","volume":"368"},"uris":["http://www.mendeley.com/documents/?uuid=efddc156-0d55-4f8b-861c-6f92fda7a9f2"]}],"mendeley":{"formattedCitation":"(Coyle & Weller, 2020)","plainTextFormattedCitation":"(Coyle & Weller, 2020)","previouslyFormattedCitation":"(Coyle & Weller, 2020)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}(Coyle & Weller, 2020).
2. ترکیبی از تکنیکهای یادگیری ماشینی تحت نظارت و بدون نظارت برای تجزیه و تحلیل موثر حجم زیادی از دادههای مرتبط با جرم و جنایت پیشنهاد شده است. این ترکیب شامل سه مرحله است: کاهش ابعاد76 ، خوشهبندی و طبقهبندی (Wang & Alexander, 2016).
3. محققان نشان دادهاند که الگوریتمهای یادگیری ماشینی میتوانند به پیشبینی گرایش مشروطها و آزادشدگان به ارتکاب جرایم خشونتآمیز، تخمین تراکم جمعیت افراد بیخانمان در شهرها و پیشبینی ماندگاری دانشجویان در دانشگاهها کمک کنند (Coglianese & Lehr, 2016).
4. به طور خاص یادگیری ماشین در بخش عمومی میتواند چنین کاربرد و نتایجی داشته باشد: الف) برآورد و پیشبینی اثرات اقتصادی تغییرات سیاست مالیاتی77؛ ب) بهبود برنامههای ملی78 (مانند رفاه اجتماعی و بیمه سلامت ملی، برای کاهش فقر و بهبود کیفیت آموزش)؛ پ) ارزیابی تهدیدات بالقوه 79(حملات تروریستی در نتیجه دسترسی به دادههای گردشگران و مهاجرت و تجزیه و تحلیل دادههای جرم وجنایت برای بهبود امنیت عمومی)؛ ت) درک شاخصهای اجتماعی و اقتصادی 80 که میتواند با تمرکز مجدد برمناطق کمبود و تخصیص منابع لازم برای جلوگیری از اتلاف و افزایش کارایی به نفع مردم باشد؛ ث) افزایش اقدامات پیشگیرانهی دولت 81 در زمینههای مختلف (مثلا در مدیریت ملی بلایای طبیعی و کمک موثر)؛ ج) ساخت شهرهای هوشمند با بهینهسازی حملونقل (مثلا بلیطهای عوارض بزرگراه را میتوان برای تعیین نیاز مسیرهای بزرگراه جدیدتر تجزیه و تحلیل کرد)؛ چ)جلوگیری و کاهش همه اشکال فساد خدمات عمومی82 (Agbozo & Spassov, 2018).
5. بـا کاربسـت هوشمصـنوعی (و یادگیری ماشین به عنوان زیرمجموعهی آن) میتـوان در جهـت شناسـایی مسـائل عمومی و الویتبنـدي آنهـا در هنگـام تـدوین خطمشـی، کـارآمـدي سیسـتم خطمشـیگذاري را افـزایش داد. کاربسـت هوش مصنوعی در تصمیمهاي پیچیده، انتخاب بهترین بدیلها را با کمترین هزینهها، تسهیل، تسریع و امکان پذیر میسازد (Pourazat et al., 2019).
6. اقتصاد رفتاری83 طرز تفکر ما را در مورد مشارکتکنندگان بازار تغییر داد و با معرفی مفهوم معماریانتخاب84 ، خطمشیگذاری را متحول کرد. یادگیری ماشین، میتواند به اقتصاد رفتاری برای حمایت و تقویت تصمیمگیری و اطلاعرسانی تصمیمات خطمشی با طراحی مداخلات شخصی، بهره برساند و به خصوص انتخاب یک زیرجمعیت 85 را آسانتر کند (Hrnjic & Tomczak, 2019).
7. (Ruz et al, 2013)، از یادگیری ماشین برای خطمشیگذاری در جهت توسعه پهنای باند و خدمات اینترنتی در شیلی استفاده کردند و از طریق خوشهبندی، متناسب با سطح درآمد خانوار و فواصل جغرافیایی، این کار را به انجام رساندند.
8. (Sghaier, 2022)، از یادگیری ماشینی برای پیشبینی رشد اقتصادی در منطقهی ((غرب آسیا و شمال آفریقا))86 بهره برد.
9. تجزیه و تحلیل احساسات87 یک کاربرد NLP است که با دادهها برای بررسی احساسات یا عقایدی که میتواند مثبت یا منفی باشد سروکار دارد. به عنوان یک تصمیمگیرنده، تخلیه احساسات نه تنها نگرشهای مصرفکننده را جلب میکند، بلکه به رعایت رفتار اجتماعی، سیاست و خطمشیگذاری نیز کمک میکند؛ که اینکار توسط یادگیری ماشین قابل انجام است (Tabassum & Khan, 2019).
10. پژوهشگران تایید کردند که از دادههای پیشین و به وسیله یادگیری ماشین، میتوان برای کشف دانش به جهت بهبود فرآیند مدیریت تعارض استفاده کرد (Bidehendi & Mahood, 2022).
1. (Arena-catania et al, 2021)، به بررسی پلتفرم کنسول88 که برای مشارکتعمومی طراحی شده و توسط یادگیری ماشین، کار میکند، پرداختند و کاراییهای پلتفرم Consul را عنوان کردند: الف) دستهبندی پیشنهادها89 برای آسانتر کردن جمعآوری و توسعه آنها؛ ب) پیشنهادات مربوطه را برای تک تک کاربران و شهروندان پیشنهاد میکند تا از آنها حمایت کنند؛ ج) شهروندان را گروهبندی میکند تا بتوانند راحتتر با افراد دارای علایق مشابه تعامل داشته باشند و د) نظرات و پیشنهادات را خلاصه میکند تا درک نظرات مردم در مورد محاسن یا معایب طرحها آسانترشود.
ب) مصداقها
مشخص شده است که تعداد سازمانهای بخش دولتی که در اجرای راه حلهای یادگیری ماشین مشارکت دارند به طور مداوم در حال افزایش است. 7 طرح دولتی در جدول 7 آورده شده است.
جدول 7 – طرح های یادگیری ماشین ، به کار رفته در دولتها، برداشت شده از (یگران, 2019)","manualFormatting":"Alexopoulos و دیگران, 2019)","plainTextFormattedCitation":"(Alexopoulos و دیگران, 2019)","previouslyFormattedCitation":"(Alexopoulos و دیگران, 2019)"},"properties":{"noteIndex":0},"schema":"https://github.com/citation-style-language/schema/raw/master/csl-citation.json"}Alexopoulos et al, 2019)
عنوان طرح | سطح آمادگی فناوری 90 | حوزه ی کاربرد | کشورهای بهره گیرنده | حوزهی کارکرد |
---|---|---|---|---|
جامعه اتحادیه اروپا | پایلوت | انرژی، کارآفرینی و نوآوری، آینده اروپا | اتحادیه اروپا | ترکیبی از تعاملات رسانههای اجتماعی، مشارکتکنندگان واجد شرایط، مدیریت اسناد، تجزیه و تحلیل بصری برای ارائه گزینههای خطمشی بهتر به تصمیمگیرندگان. |
تدوین و اعتبارسنجی خطمشی از طریق جمعسپاری غیر تعدیلشده 91 (NOMAD) | پایلوت | انرژی، سلامت، شفافیت | یونان، اتریش، بریتانیا | معرفی ابعاد جدید به تجربه خطمشیگذاری با ارائه راهحلهای کاملا خودکار به تصمیمگیرندگان برای جستجوی محتوا، انتخاب، طبقهبندی و تجسم که به صورت مشارکتی در عرصه خطمشیگذاری کار میکند. |
MANYLAWS: متن کاوی 92 قانونی در سراسر اتحادیه اروپا با استفاده از زیرساختهای پردازش کلانداده | پایلوت | قانونگذاری | یونان، اتریش | دسترسی یکپارچه و فراگیر به اطلاعات حقوقی در سراسر اتحادیه اروپا و بهبود کارایی تصمیمگیری در رویههای قانونی اجرا شده توسط سازمانهای دولتی ، ارائه خدمات پیشرفته برای شهروندان، مشاغل و ادارات |
SIMPATICO: سادهسازی تعامل با مدیریت دولتی از طریق فناوری اطلاعات برای شهروندان و شرکتها | پایلوت | جامعه (خدمات) | ایتالیا، بریتانیا ، اسپانیا | رویکرد ((یادگیری از طریق انجام)) در این طرح، از اطلاعات استفاده میکند و آن را با پروفایلهای کاربر تطبیق میدهد تا به طور مداوم تعاملات با خدمات عمومی را تطبیق داده و بهبود بخشد. |
STREAMLINE | پایلوت | علوم اجتماعی و علوم انسانی، جامعه | آلمان، مجارستان | نیازهای رقابتی کسب و کارهای رسانه آنلاین اروپایی (EOMB) را با ارائه تجزیه و تحلیل واکنشی سریع مناسب برای حل طیف وسیعی از مشکلات، از جمله رسیدگی به حفظ مشتری، توصیه شخصی، و خدمات هدفمندتر، برطرف میکند |
کلان داده اروپا – توانمندسازی جوامع با فناوری های داده (اطلاعات بزرگ اروپا) | پیادهسازی در مقیاس کلان | بهداشت، غذا و کشاورزی، انرژی، حمل و نقل، اقلیم، علوم اجتماعی، امنیت | یونان، ایتالیا، نروژ، اسپانیا | هدف BDE ایجاد یک شبکه سهامداران گسترده در جوامع مربوطه از سراسر حوزه های مختلف SC است. کل فرآیند استفاده از دادهها را در هر یک، از جمعآوری، پردازش، ذخیره سازی و تجسم داده تا توسعه خدمات داده را پوشش میدهد. |
5-بحث و نتیجهگیری
درسال 1967 میلادی، جان کالکین 93 ، با تفسیر یکی از پنج اصل مارشال مکلوهان 94 ، این خط معروف را ارائه کرد: ((ما ابزارهای خود را شکل میدهیم و پس از آن، آنها ما را شکل میدهند.)) ترس از کنار گذاشتن تصمیمات مهم خطمشی برای کنترل ابزارها، به جای استفاده مستقل از آنها در خدمت منافع عمومی95، در مرکز نگرانیهای فعلی با پذیرش سیستمهای یادگیری ماشین توسط دولت قرار دارد (Mulligan & Bamberger, 2019).
اگر برنامههای یادگیری ماشینی به خوبی طراحی و مدیریت شوند، اتکای دولت به آنها باید بتواند در برابر چالشهای قانونی بر اساس اصول استدلال مقاومت کند. این واقعیت که استفاده از چنین الگوریتمهایی میتواند خواستههای قانونی برای شفافیت را برآورده کند، به این معنا نیست که الگوریتمها باید فورا در هر حوزه اداری خاص مستقر شوند. اما این بدان معناست که محققان، سیاستگذاران و عموم مردم باید پذیرای استفاده از الگوریتمهای یادگیری ماشینی باشند تا بتوانند مدیریت دولتی را بهبود بخشند (Coglianese & Lehr, 2019).
یکی از محبوبترین مفهومسازیهای حکمرانی هوش مصنوعی یک مدل لایهای است که تعامل بین جامعه و سیستمهای هوش مصنوعی (به طور خاص یادگیری ماشینی) را نشان میدهد. این مدل شامل سه لایه متقابل است که در آن، لایه فنی نشاندهنده شالوده است و به دنبال آن لایه اخلاقی و لایه اجتماعی و قانونی در بالاتر قرار دارد. دامنه لایهی فنی96 حاکمیتی به سه بخش اصلی تقسیم شده است: داده، مدل و سیستم.
مدل حکمرانی سه بعدی هوش مصنوعی
در پایان، بر اساس یافتههای پژوهش و دانش و شهود پژوهشگر، مدل مذکور برای حکمرانی در عرصه هوش مصنوعی، ارائه میگردد:
شکل 5 – مدل حکمرانی سهبعدی هوش مصنوعی؛ براساس یافتههای پژوهش |
ابتدا تعریفی کلی از هر بعد و سپس به تفصیل هر یک از موارد مطرحشده در هر بعد توضیح داده میشود.
1- بعد فنی:
تعریف کلی: بعد فنی به جنبههای تکنولوژیکی و زیرساختی حکمرانی هوش مصنوعی اشاره دارد که شامل استانداردسازی دادهها، حفظ امنیت سیستمها، و نظارت بر عملکرد مدلها میشود.
· تدوین استانداردهای داده: استانداردهای داده تعیین میکنند که دادهها به چه صورت جمعآوری، ذخیرهسازی و پردازش شوند تا کیفیت و قابلیت استفاده آنها برای آموزش مدلهای هوش مصنوعی تضمین شود. این استانداردها همچنین برای تعاملات بین سیستمهای مختلف هوش مصنوعی ضروری هستند تا دادهها بهطور یکپارچه و بدون تداخل مورد استفاده قرار گیرند.
· امنیت سایبری: با توجه به حجم زیاد دادهها و پیچیدگی الگوریتمهای هوش مصنوعی، سیستمها و دادهها در معرض تهدیدات سایبری قرار دارند. بنابراین، حفاظت از این دادهها و اطمینان از اینکه سیستمهای هوش مصنوعی در برابر حملات و دسترسیهای غیرمجاز مقاوم هستند، از اهمیت بالایی برخوردار است.
· نظارت بر عملکرد الگوریتمهای یادگیری ماشین: پس از طراحی و پیادهسازی الگوریتمهای یادگیری ماشین، نظارت مداوم بر عملکرد آنها ضروری است تا اطمینان حاصل شود که مدلها بهدرستی عمل میکنند و تصمیمات نادرست یا ناعادلانه نمیگیرند. این نظارت میتواند شامل ارزیابیهای مستمر و اصلاحات لازم بر اساس دادههای جدید باشد.
2- بعد حقوقی و اخلاقی:
تعریف کلی: بعد حقوقی و اخلاقی به جنبههای قانونی و اصول اخلاقی مربوط به هوش مصنوعی اشاره دارد که به تدوین قوانین، حفاظت از حقوق افراد و جلوگیری از سوءاستفاده از این فناوریها میپردازد.
· تدوین قوانین شفاف برای مسئولیتپذیری: در این بعد، هدف این است که قوانینی تدوین شود که مشخص کند در صورت بروز اشتباه یا خسارت ناشی از استفاده از هوش مصنوعی، مسئولیت آن بر عهده کدام افراد یا نهادها خواهد بود. این قوانین باید بهوضوح مشخص کنند که چه کسی مسئول است و چگونه باید پاسخگو باشد.
· حفاظت از حریم خصوصی: یکی از نگرانیهای عمده در استفاده از هوش مصنوعی، حفاظت از دادههای شخصی و حریم خصوصی افراد است. در این بعد، باید قوانین و مقرراتی برای مدیریت دادههای حساس افراد وضع شود تا از سوءاستفاده از این دادهها جلوگیری شود و حقوق حریم خصوصی حفظ گردد.
· جلوگیری از تبعیض الگوریتمی: الگوریتمهای هوش مصنوعی ممکن است بهدلیل دادههای ناعادلانه یا پیشفرضهای مغرضانه، تصمیمات تبعیضآمیزی بگیرند. این بعد به تدوین قواعدی میپردازد که تضمین کند الگوریتمها بهطور عادلانه و بیطرفانه عمل کنند و از بروز تبعیض در فرآیندهای تصمیمگیری جلوگیری شود.
3- بعد خطمشیگذاری عمومی:
تعریف کلی: بعد سیاستگذاری عمومی به نحوه طراحی و اجرای سیاستها و برنامههای عمومی برای بهرهبرداری مؤثر از هوش مصنوعی و مدیریت آن در سطح جامعه اشاره دارد.
· حمایت از نوآوری: این بخش بر اهمیت حمایت از توسعه و استفاده از فناوریهای نوآورانه تأکید دارد. سیاستهای عمومی باید به گونهای طراحی شوند که از تحقیق و توسعه در حوزه هوش مصنوعی حمایت کنند و فرصتهایی را برای نوآوری ایجاد کنند تا به پیشرفت فناوری در سطح جهانی کمک کنند.
· ایجاد چارچوب پاسخگویی: ایجاد یک چارچوب قانونی و اجرایی برای مسئولیتپذیری در استفاده از هوش مصنوعی و نظارت بر عملکرد این فناوریها در سطح عمومی از دیگر ارکان این بعد است. این چارچوب باید روشن کند که چگونه افراد، شرکتها و سازمانها باید در برابر اثرات هوش مصنوعی پاسخگو باشند.
· توانمندسازی نیروی انسانی: با توجه به گسترش استفاده از هوش مصنوعی در همه بخشها، آموزش و توانمندسازی نیروی انسانی در مواجهه با این فناوری اهمیت زیادی دارد. سیاستهای عمومی باید بر آموزش و ارتقای مهارتهای نیروی کار تأکید کنند تا افراد بهطور مؤثر از فناوریهای هوش مصنوعی استفاده کنند و در عین حال قادر به مدیریت چالشهای ناشی از آن باشند.
این سه بعد بهطور مشترک حکمرانی هوش مصنوعی را از ابعاد فنی، حقوقی، اخلاقی و اجتماعی پوشش میدهند و برای استفاده بهینه و ایمن از این فناوری نیاز به همکاری و هماهنگی بین این جنبهها دارد.
مقایسه با پژوهشهای پیشین
· برخلاف پژوهش Mulligan & Bamberger (2019) که تنها بر ابعاد حقوقی تأکید دارد، این مطالعه همزمان ابعاد اخلاقی، اجتماعی و سیاستی را نیز بررسی کرده است.
· مطالعه Coglianese & Lehr (2019) نشان داد که یادگیری ماشین میتواند دقت تصمیمات حکمرانی را افزایش دهد، اما این پژوهش فراتر رفته و نشان داده که وابستگی بیشازحد به AI میتواند نظارت انسانی را تضعیف کند.
پیشنهادات مدیریتی
· حکومتها باید هوش مصنوعی را بهعنوان یک مزیت رقابتی در نظر بگیرند و برای تدوین چارچوبهای تنظیمگری آن پیشگام شوند.
· سرمایهگذاری در زیرساختها، استانداردهای داده و سیستمهای نظارتی برای بهرهبرداری بهینه از AI ضروری است.
· ادغام AI در سیاستگذاری عمومی میتواند باعث کاهش هزینهها و افزایش بهرهوری شود، اما نیازمند نظارت دقیق و تدوین قوانین شفاف است.
· باوجود مزایای AI، چالشهای مربوط به سوگیری الگوریتمی، شفافیت و امنیت دادهها نباید نادیده گرفته شود.
پیشنهادات پژوهشی:
· آزمون مدل حکمرانی AI در بسترهای اجرایی واقعی و تحلیل تجربی میزان تأثیر آن بر سیاستگذاری عمومی.
· بررسی واکنشهای عمومی و سطح اعتماد مردم به تصمیمات مبتنی بر هوش مصنوعی در حکمرانی.
· توسعه شاخصهای کمی برای ارزیابی عملکرد مدل پیشنهادی در شرایط مختلف سیاسی و اقتصادی.
محدودیتهای پژوهش:
· باوجود ارائه یک چارچوب جامع، این تحقیق با چندین محدودیت مواجه است. نخست، روش فراترکیب بهطور ذاتی محدود به یافتههای موجود در مطالعات منتخب است و ممکن است برخی تجربیات عملی را نادیده بگذارد. دوم، کمبود دادههای تجربی برای آزمون مدل پیشنهادی، امکان ارزیابی عملیاتی آن را کاهش میدهد.
تشکر و قدردانی ( اظهاریه)
از حمایتهای اندیشکده حکمرانی دانشگاه تهران، پروفسورعلیاصغر پورعزت و همچنین دکتر مهیار حسنی در جهت انجام این پژوهش و نگارش این مقاله، بسیار صمیمانه سپاسگزاری میشود.
Abdala, V., Ortega, F., et al. (2020). The role of multi-stakeholder approaches in AI governance: Reducing inequalities through global standards. AI & Society, 35, 927-938. https://doi.org/10.1007/s00146-020-00952-w
Agbozo, E., & Spassov, K. (2018). Establishing efficient governance through data-driven e-government. In Proceedings of the 11th International Conference on Theory and Practice of Electronic Governance (pp. 662-664). https://doi.org/10.1145/3209415.3209513
Alexopoulos, C., Lachana, Z., Androutsopoulou, A., Diamantopoulou, V., Charalabidis, Y., & Loutsaris, M. A. (2019). How machine learning is changing e-government. In Proceedings of the 12th International Conference on Theory and Practice of Electronic Governance (pp. 354-363). https://doi.org/10.1145/3326365.3326412
Arana-Catania, M., Van Lier, F.-A., Procter, R., Tkachenko, N., He, Y., Zubiaga, A., & Liakata, M. (2021). Citizen participation and machine learning for a better democracy. Digital Government: Research and Practice, 2(3), 1-22. https://doi.org/10.1145/3452118
Berman, E. (2018). A government of laws and not of machines. Boston University Law Review, 98, 1277
Bidhendi, A., & Mahoud, M. (2022). Application of new technologies such as machine learning in project management. Bi-Monthly Journal of Management, 32(216), 153. [in Persian]
Butcher, J., & Beridze, I. (2019). What is the state of artificial intelligence governance globally? The RUSI Journal, 164(5-6), 88-96. https://doi.org/10.1080/03071847.2019.1694260
Büthe, T., Djeffal, C., Lütge, C., Maasen, S., & von Ingersleben-Seip, N. (2022). The governance of artificial intelligence. Journal of European Public Policy, 29(11), 1751-1752. https://doi.org/10.1080/13501763.2022.2077131
Coglianese, C., & Lehr, D. (2016). Regulating by robot: Administrative decision making in the machine-learning era. Georgetown Law Journal, 105, 1147.
Coglianese, C., & Lehr, D. (2019). Transparency and algorithmic governance. Administrative Law Review, 71, 1.
Coyle, D., & Weller, A. (2020). "Explaining" machine learning reveals policy challenges. Science, 368(6498), 1433-1434. https://doi.org/10.1126/science.aba9647
Cugurullo, F., Xu, Y., & others. (2024). Predictive AI in urban governance: Balancing innovation with transparency and accountability. Urban Studies, 61(3), 567-583. https://doi.org/10.1177/00420980231183654
Del Casino Jr, V. J., House‐Peters, L., Crampton, J. W., & Gerhardt, H. (2022). The social life of robots: The politics of algorithms, governance, and sovereignty. In Machine Learning and the City: Applications in Architecture and Urban Design (pp. 603-613). https://doi.org/10.1002/9781119815075.ch43
Desouza, K. C. (2018). Delivering artificial intelligence in government: Challenges and opportunities. Public Administration Review, 78(5), 647-651. https://doi.org/10.1111/puar.12979
Fernández, A. (2023). Legal implications of artificial intelligence in governance: Proposing the i-Gov model. Journal of Information Technology & Politics, 20(2), 123-140. https://doi.org/10.1080/19331681.2022.2087836
Hariyanti, D., Janeswari, M., & others. (2023). Artificial intelligence in IT governance and public decision-making processes. Journal of Public Administration and Policy Research, 15(1), 45-58. https://doi.org/10.5897/JPAPR2023.0514
Henman, P. (2020). Improving public services using artificial intelligence: Possibilities, pitfalls, governance. Asia Pacific Journal of Public Administration, 42(4), 209-221. https://doi.org/10.1080/23276665.2020.1816188
Herm, L.-V., Heinrich, K., Wanner, J., & Janiesch, C. (2022). Stop ordering machine learning algorithms by their explainability! A user-centered investigation of performance and explainability. International Journal of Information Management, 102538. https://doi.org/10.1016/j.ijinfomgt.2022.102538
Hrnjic, E., & Tomczak, N. (2019). Machine learning and behavioral economics for personalized choice architecture. arXiv preprint arXiv:1907.02100.
Johns, F. (2021). Governance by data. Annual Review of Law and Social Science, 17, 53-71. https://doi.org/10.1146/annurev-lawsocsci-120220-074157
Johnson, A., Smith, B., & Lee, C. (2025). Enhancing transparency and accountability in urban governance through artificial intelligence . Journal of Public Administration and Policy Research, 15(3), 45-62. https://doi.org/xxxx.xxxx/jpapr.2025.003
Laato, S., Birkstedt, T., Mäantymäki, M., Minkkinen, M., & Mikkonen, T. (2022). AI governance in the system development life cycle: Insights on responsible machine learning engineering. In Proceedings of the 1st International Conference on AI Engineering: Software Engineering for AI (pp. 113-123). https://doi.org/10.1145/3522664.3528622
Lazazzara, A., Tims, M., & De Gennaro, D. (2020). The process of reinventing a job: A meta-synthesis of qualitative job crafting research. Journal of Vocational Behavior, 116, 103267. https://doi.org/10.1016/j.jvb.2019.01.001
Li, X., Fan, Y., & others. (2023). Integrating AI into local governance in China: Data consolidation and policy innovation for efficient public services. Public Management Review, 25(4), 601-620. https://doi.org/10.1080/14719037.2022.2063833
Maas, M. M. (2021). Artificial intelligence governance and the need for international cooperation. International Studies Review, 23(3), 876-902. https://doi.org/10.1093/isr/viaa064
Mulligan, D. K., & Bamberger, K. A. (2019). Procurement as policy: Administrative process for machine learning. Berkeley Technology Law Journal, 34, 773. https://doi.org/10.15779/Z38TX35853
Perboli, G., & Arabnezhad, E. (2021). A machine learning-based DSS for mid and long-term company crisis prediction. Expert Systems with Applications, 174, 114758. https://doi.org/10.1016/j.eswa.2021.114758
Pourezat, A. A., Rafiei, S., Momenzadeh, P., & Koklan, N. (2019). Return of rationality; Application of artificial intelligence in governance and public policy-making. Administrative Studies and Research, 3, 8-18. [in Persian]
Reddy, S., Allan, S., Coghlan, S., & Cooper, P. (2020). A governance model for the application of AI in health care. Journal of the American Medical Informatics Association, 27(3), 491-497. https://doi.org/10.1093/jamia/ocz192
Rodolfa, K. T., Lamba, H., & Ghani, R. (2021). Empirical observation of negligible fairness-accuracy trade-offs in machine learning for public policy. Nature Machine Intelligence, 3(10), 896-904. https://doi.org/10.1038/s42256-021-00396-x
Ruz, G. A., Varas, S., & Villena, M. (2013). Policy making for broadband adoption and usage in Chile through machine learning. Expert Systems with Applications, 40(17), 6728-6734. https://doi.org/10.1016/j.eswa.2013.06.019
Schneider, J., Abraham, R., Meske, C., & Vom Brocke, J. (2022). Artificial intelligence governance for businesses. Information Systems Management, 1-21. https://doi.org/10.1080/10580530.2022.2025215
Sehatbakhsh, N., Daw, E., Savas, O., Hassanzadeh, A., & McCulloh, I. (2020). Security and privacy considerations for machine learning models deployed in the government and public sector (white paper). arXiv preprint arXiv:2010.05809.
Sepasspour, A. (2023). Global AI governance challenges: Speed, scale, and geopolitical pressures. Technology in Society, 72, 102145. https://doi.org/10.1016/j.techsoc.2022.102145
Sghaier, A. (2022). Machine learning-based modelling of economic growth and quality of governance: The MENA region.
Stirling, J. (2001). Thematic networks: An analytic tool for qualitative research. Qualitative Research, 1(3), 385-405. https://doi.org/10.1177/146879410100100307
Tabassum, N., & Khan, M. I. (2019). Design an empirical framework for sentiment analysis from Bangla text using machine learning. In 2019 International Conference on Electrical, Computer and Communication Engineering (ECCE) (pp. 1-5). https://doi.org/10.1109/ECACE.2019.8679141
Tallberg, J., Erman, E., & others. (2023). The emerging global governance of artificial intelligence: Exploring the research agenda. Global Policy, 14(1), 5-17. https://doi.org/10.1111/1758-5899.13179
Tiwana, A., Konsynski, B., & Venkatraman, N. (2013). Information technology and organizational governance: The IT governance cube. Journal of Management Information Systems, 30(3), 7-12. https://doi.org/10.2753/MIS0742-1222300301
Vazan, M. (2021). Machine learning and data science: Foundations, concepts, algorithms and tools. Miad Andisheh. [in Persian]
Veale, M., & Brass, I. (2019). Administration by algorithm? Public management meets public sector machine learning. https://doi.org/10.2139/ssrn.3337859
Wang, L., & Alexander, C. A. (2016). Machine learning in big data. International Journal of Mathematical, Engineering and Management Sciences, 1(2), 52-61. https://doi.org/10.33889/IJMEMS.2016.1.2-006
.
دوره 2، شماره 3، پاییز 1404
[1] https://doi.org/10.71815/jnapa.2025.1200094
[2] - Natural Language Processing (NLP)
[3] - Algorithm
[4] - Deep Learning (DL)
[5] - prediction
[6] - Support Vector Machine (SVM)
[7] - gradient boosting
[8] - Naive Bayesian classifier
[9] - Supervised Learning
[10] - Unsupervised Learning
[11] - Semi-Supervised Learning
[12] - Reinforcement Learning
[13] - Ecosystem
[14] - Participants
[15] - Government, Service provider, Model
[16] - Developer, AI Expert
[17] - Users
[18] - Government officials
[19] - Public services
[20] - Sorting populations
[21] - New Public Management
[22] - One-stop-shop
[23] - End-to-end
[24] - Zero touch technologies
[25] - Automation systems
[26] - Quantity or efficiency of routine public sector operations
[27] - Augmentation systems
[28] - Analytic capacity
[29] - Administrative data
[30] - Public decision - making
[31] - Street-level bureaucrats
[32] - rights of the data subjects: حق اطلاع از جمع آوری و استفاده از دادههای شخصی خود. حق دسترسی به دادههای شخصی و اطلاعات تکمیلی؛ حق تصحیح دادههای شخصی نادرست یا تکمیل آنها در صورت ناقص بودن و حق پاک کردن (فراموش شدن) در شرایط خاص.
[33] - Public goods and services
[34] - Algorithmic Governance
[35] - Legal and public demands
[36] - Transparency
[37] - Potentially legitimacy
[38] - Human and non-human actors
[39] - Back-end data infrastructures
[40] - technical layer
[41] - utcome variable and objective function
[42] - data governance
[43] - training and retraining
[44] - Government effectiveness (EG)
[45] - Political stability and absence of violence / terrorism (SP)
[46] - Regulatory quality (QR)
[47] - rule of law (ED)
[48] - Voice and Accountability(VR)
[49] - Governance Mechanisms
[50] - structuring and formalizing
[51] - strategic asset
[52] - supporting artifacts
[53] - Antecedents
[54] - Consequences
[55] - Structural Mechanisms
[56] - allocation of decision-making authority
[57] - Procedural Mechanisms
[58] - Relational Mechanisms
[59] - coordination of decision making
[60] - Subject Scope
[61] - Organizational Scope
[62] - Targets
[63] - Who is governed?
[64] - What is governed?
[65] - How is it governed?
[66] - Public participation
[67] - Political oversight
[68] - Efficiency
[69] - Performance & Process Simplification
[70] - Flexibility
[71] - Multi dimensional
[72] - Team – Based & Mixed Initiative Learning
[73] - Interpretation of results
[74] - Information Overload
[75] - Heterogeneity of Data
[76] - Dimensionality reduction
[77] - Tax policy
[78] - National programs
[79] - Potential threats
[80] - Social and economic indicators
[81] - Government proactivity
[82] - Public service corruption
[83] - Behavioral economics
[84] - Choice architecture
[85] - Sub-population
[86] - MENA region
[87] - Sentiment analysis
[88] - Consul platform
[89] - Proposals
[90] - Technology readiness level
[91] - unmoderated crowdsourcin
[92] - Text Mining
[93] - John Culkin
[94] - Marshal McLuhan
[95] - Public interest
[96] - technical layer