An Analysis of the Role of Artificial Intelligence in Enhancing the Implementation of the Fundamental Principles of Armed Conflict
Subject Areas : Legal Studies of Cyberspacehadi mahmoodi 1 , Masoud Raei 2 , Alireza Ansari Mahyari 3
1 - Faculty of Law, Najafabad Branch, Islamic Azad University, Najafabad, Iran
2 - Department of Law, Najafabad Branch, Islamic Azad University, Najafabad, Iran.
3 - Assistant Professor and Director of Graduate Studies, Department of Law, Faculty of Theological Law and Islamic Studies, Najaf Abad Branch, Islamic Azad University, Najaf Abad, Iran
Keywords: Fundamental Principles of Armed Conflict, International Humanitarian Law, Challenges and Opportunities, Armed Conflicts, Artificial Intelligence,
Abstract :
Conflicts represent one of the most complex and critical challenges in today’s world, demanding innovative and ethically grounded solutions. The fundamental principles of armed conflict are recognized as a key framework for minimizing human casualties and financial losses in warfare. With advances in technology, artificial intelligence (AI)—through its capabilities in data analysis, natural language processing, and machine learning—holds significant potential for enhancing the implementation of these principles and mitigating the negative consequences of armed conflicts. This study, using a descriptive–analytical method, examines the role of AI in enforcing fundamental principles of armed conflict and analyzes the challenges associated with its application. Findings indicate that AI, by analyzing large volumes of data and accurately identifying targets, can prevent unnecessary hostilities and reduce civilian casualties. However, challenges such as accuracy, decision-making transparency, data security, and accountability in cases of error or human rights violations require particular attention. For the ethical and effective use of AI in conflicts, strengthening international cooperation and developing global standards, along with comprehensive legal and regulatory frameworks, are recommended. By providing innovative analyses and practical recommendations, this study contributes to the optimal use of advanced technologies to reduce violence and promote peace.
1. ضیایی بیگدلی، محمدرضا. (1401)، حقوق بین الملل بشر دوستانه، نوبت ششم، تهران، انتشارات گنج دانش.
2. گری دی. سولیس. (1398)، حقوق مخاصمات مسلحانه: حقوق بشردوستانه بینالمللی در جنگ. ترجمه عباسعلی عظیمی شوشتری و مهدی خاقانی اصفهانی، تهران: انتشارات زمزم هدایت.
3. پیریایی، شیرین و رنجبریان، امیرحسین و مرادی منوچهر. (1402). انسان، جنگ، الگوریتم در جستجوی پاسخهای حقوق بینالملل بشردوستانه. نوبت اول، تهران. انتشارات میزان.
4. ضیایی بیگدلی، محمدرضا. (1382).«حقوق بشر، حقوق بشردوستانه و حقوق بینالملل بشر، مجموعهمقالات». تهران: کمیته ملی حقوق بشردوستانه، صفحه 82 .
5. قرباننیا، ناصر و اخگری بناب، نادر. (1390). «عدم مشروعیت کاربرد سلاح هستهای در پرتو اصل تفکیک (با رویکرد اسلامی)»، حقوق اسلامی، سال هشتم، شماره 28، صفحه 77.
6. شریفی طراز کوهی، حسین و صیاد نژاد، محمدحسین، (1399). «اِعمال اصول بنیادین حقوق بینالملل بشردوستانه بر تسلیحات کاملاً خودکار بهعنوان ابزار نوین جنگی»، فصلنامه مطالعات حقوق عمومی دانشگاه تهران، دوره 50، شماره 2،صفحه 551-575.
7. انصاری مهیاری، علیرضا، محمودی، هادی، (1401). «بررسی راهکارهای تقلیل حملات سایبری از منظر حقوق بینالملل بشردوستانه»، فصلنامه مطالعات حقوق فضای مجازی، سال اول، شماره سوم،صفحه 19-36.
8. نداف، ناصر، «سامانههای تسلیحاتی خود آیین و چالشهای موجود برای قاعدهمندسازی آنها»، وبسایت انجمن ایرانی مطالعات سازمان ملل متحد، (1400).
9. Shafritz, Jay M., et al. (2022). Introducing Public Administration. Routledge.
10. Nath, Vishnu; Levinson, Stephen E. (2014). Autonomous Military Robotics. Springer International Publishing.
11. Beard, Jack M. (2018). "The Principle of Proportionality in an Era of High Technology." Forthcoming, Oxford University Press, Lieber Institute for Law and Land Warfare Book Series - Complex Battlespaces: The Law of Armed Conflict and the Dynamics of Modern Warfare, edited by Christopher M. Ford and Winston S. Williams.
12. Steinholt, Jørgen Agil T. (2022). "Autonomous Weapons Systems: The ICRC's Recommendations and Its Implications for International Humanitarian Law."
13. Devey, Cher SH. (2019). "A Triage Playbook: Privacy Harm and Data Incident Response in the UK."
14. Henckaerts, Jean-Marie; Alvermann, Carolin. (2005). Customary International Humanitarian Law. Cambridge University Press.
15. Henckaerts, Jean-Marie; Alvermann, Carolin. (2005). Customary International Humanitarian Law. Cambridge University Press.
16. Russell, Stuart J.; Norvig, Peter. (2016). Artificial Intelligence: A Modern Approach.
17. Shukla, Amit K.; Terziyan, Vagan; Tiihonen, Timo. (2024). "AI as a User of AI: Towards Responsible Autonomy." Heliyon, 10.11.
18. Arkin, Ronald Craig; Ulam, Patrick; Wagner, Alan R. (2011). "Moral decision making in autonomous systems: Enforcement, moral emotions, dignity, trust, and deception." Proceedings of the IEEE, 571-589.
19. Schindler, Dietrich; Toman, Jiri. (2004). "Declaration Renouncing the Use, In Time of War, Of Explosive Projectiles under 400 Grammes Weight." The Laws of Armed Conflicts. Brill Nijhoff, 91-93.
20. Culnane, Chris; Rubinstein, Benjamin IP; Teague, Vanessa. (2017). "Health Data in an Open World." arXiv preprint arXiv:1712.05627.
21. Radanliev, Petar, et al. (2018). "Future Developments in Cyber Risk Assessment for the Internet of Things." Computers in Industry, 102, 14-22.
22. Jobin, Anna; Ienca, Marcello; Vayena, Effy. (2019). "The Global Landscape of AI Ethics Guidelines." Nature Machine Intelligence, 1.9, 389-399.
23. Floridi, Luciano; Cowls, Josh. (2022). "A Unified Framework of Five Principles for AI in Society." Machine Learning and the City: Applications in Architecture and Urban Design, 535-545.
24. Konidena, Bhargav Kumar; Malaiyappan, Jesu Narkarunai Arasu; Tadimarri, Anish. (2024). "Ethical Considerations in the Development and Deployment of AI Systems." European Journal of Technology, 8.2, 41-53.
25. Trusilo, Daniel; Danks, David. (2023). "Artificial Intelligence and Humanitarian Obligations." Ethics and Information Technology, 25.1, 12.
26. Fossaceca, John M.; Young, Stuart H. (2018). "Artificial Intelligence and Machine Learning for Future Army Applications." In Ground/Air Multisensor Interoperability, Integration, and Networking for Persistent ISR IX, SPIE, 8-25.
27. Lipton, Zachary C. (2018). "The Mythos of Model Interpretability: In Machine Learning, the Concept of Interpretability is Both Important and Slippery." Queue, 16.3, 31-57.
28. Kertysova, Katarina. (2018). "Artificial Intelligence and Disinformation: How AI Changes the Way Disinformation is Produced, Disseminated, and Can Be Countered." Security and Human Rights, 29.1-4, 55-81.
29. Buehler, Antje, et al. (2019). "Challenges for Research into Military Investigations." Psychiatry, Psychology and Law, 26.1, 50-64.
30. Khorram-Manesh, Amir, et al. (2021). "Estimating the Number of Civilian Casualties in Modern Armed Conflicts – A Systematic Review." Frontiers in Public Health, 9, 261.
31. Pashkov, Vitalii M.; Mykhailichenko, Tetiana O.; Zabukha, Yuliia Yu. (2024). "Medical and Pharmaceutical Activities in Occupied Territories: Legal Assessment and Ukraine's Experience." Polski Merkuriusz Lekarski: Organ Polskiego Towarzystwa Lekarskiego, 52.4, 445-452.
32. Mohamed, Amira; Homeida, Anmar. (2024). "Hunger in the Shadow of Conflict: Analyzing Malnutrition and Humanitarian Challenges in Sudan." Conflict and Health, 18.1, 50.
33. Goniewicz, Krzysztof; Goniewicz, Mariusz; Pawłowski, Witold. (2016). "Protection of Medical Personnel in Contemporary Armed Conflicts." Wiadomości Lekarskie (Warsaw, Poland: 1960), 69.2 Pt 2, 280-284.
34. Grace, Rob, et al. (2023). "Moving Humanitarian-Military Relations Forward: A New Typology." Journal of International Humanitarian Action, 8.1, 2.
35. Gaggioli, Gloria. (2018). "International Humanitarian Law: The Legal Framework for Humanitarian Forensic Action." Forensic Science International, 184-194.
36. Bode, Ingvild. (2018). "Reflective Practices at the Security Council: Children and Armed Conflict and the Three United Nations." European Journal of International Relations, 24.2, 293-318.
37. Metcalf, Mark. (2022). "The PRC Considers Military AI Ethics: Can Autonomy Be Trusted?" Frontiers in Big Data, 5, 991392.
38. Mao, Yishu; Shi-Kupfer, Kristin. (2023). "Online Public Discourse on Artificial Intelligence and Ethics in China: Context, Content, and Implications." AI & Society, 1-17.
39. Mirzekhanov, V. S.; Trunov, F. O. (2022). "Features of Armed Conflict Resolution in Asia and Africa from the Late 2010s Through the Early 2020s." Herald of the Russian Academy of Sciences, 92.6, 713-721.
40. Schraagen, Jan Maarten. (2023). "Responsible Use of AI in Military Systems: Prospects and Challenges." Ergonomics, 66.11, 1719-1729.
41. Lepri, Bruno; Oliver, Nuria; Pentland, Alex. (2021). "Ethical Machines: The Human-Centric Use of Artificial Intelligence." iScience, 24.3.
42. Cath, Corinne. (2018). "Governing Artificial Intelligence: Ethical, Legal and Technical Opportunities and Challenges." Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376.
Volume 4, Issue 14, Summer 2025 Article Type: Research DOI: 10.71488/cyberlaw.2025.1217501
|
Received: 2025/03/13 Accepted: 2025/04/23 Publish: 2025/09/09 Pages: 79-95
|
ISSN: 2821-126X |
An Analysis of the Role of Artificial Intelligence in Enhancing the Implementation of the Fundamental Principles of Armed Conflict
Hadi Mahmoodi
Department of Public International Law, Na.C., Islamic Azad University, Najaf Abad, Iran
Masoud Raei Dehghi
Abstract
Conflicts represent one of the most complex and critical challenges in today’s world, demanding innovative and ethically grounded solutions. The fundamental principles of armed conflict are recognized as a key framework for minimizing human casualties and financial losses in warfare. With advances in technology, artificial intelligence (AI)—through its capabilities in data analysis, natural language processing, and machine learning—holds significant potential for enhancing the implementation of these principles and mitigating the negative consequences of armed conflicts. This study, using a descriptive–analytical method, examines the role of AI in enforcing fundamental principles of armed conflict and analyzes the challenges associated with its application. Findings indicate that AI, by analyzing large volumes of data and accurately identifying targets, can prevent unnecessary hostilities and reduce civilian casualties. However, challenges such as accuracy, decision-making transparency, data security, and accountability in cases of error or human rights violations require particular attention. For the ethical and effective use of AI in conflicts, strengthening international cooperation and developing global standards, along with comprehensive legal and regulatory frameworks, are recommended. By providing innovative analyses and practical recommendations, this study contributes to the optimal use of advanced technologies to reduce violence and promote peace.
Keywords: Fundamental Principles of Armed Conflict, International Humanitarian Law, Challenges and Opportunities, Armed Conflicts, Artificial Intelligence.
¯Citation (APA): Mahmoodi, H.; Raei Dehghi, M. (2025). An Analysis of the Role of Artificial Intelligence in Enhancing the Implementation of the Fundamental Principles of Armed Conflict. Cyberspace legal studies, 4(14), 79-95.
Department of Public International Law, Na.C., Islamic Azad University, Najaf Abad, Iran (Corresponding Author) Email: masoudraei@yahoo.com
Alireza Ansari mahyari
Department of Public International Law, Na.C., Islamic Azad University, Najaf Abad, Iran
دوره 4 / شماره 14 / تابستان 1404 نوع مقاله: پژوهشی DOI: 10.71488/cyberlaw.2025.1217501
|
تاریخ دریافت: 23/12/1403 تاریخ پذیرش: 03/02/1404 تاریخ انتشار: 18/06/1404 صفحه: 79 الی 95 |
ISSN: 2821-126X |
تحلیل نقش هوش مصنوعی در بهبود اجرای اصول بنیادین مخاصماتی
هادی محمودی
گروه حقوق بین الملل عمومی، واحد نجف آباد، دانشگاه آزاد اسلامی، نجف آباد، ایران
مسعود راعی دهقی
گروه حقوق بین الملل عمومی، واحد نجف آباد، دانشگاه آزاد اسلامی، نجف آباد، ایران
(نویسنده مسئول)
پست الکترونیک: masoudraei@yahoo.com
علیرضا انصاری مهیاری
گروه حقوق بین الملل عمومی، واحد نجف آباد، دانشگاه آزاد اسلامی، نجف آباد، ایران
چکیده
مسائل مخاصمات یکی از چالشهای پیچیده و حیاتی در دنیای امروز هستند که نیازمند راهحلهای نوآورانه و مبتنی بر اصول اخلاقی میباشند. اصول بنیادین مخاصماتی، بهعنوان چارچوبی کلیدی برای کاهش تلفات انسانی و خسارات مالی در درگیریها شناخته میشوند. با پیشرفت فناوری، سیستمهای هوش مصنوعی با قابلیتهایی مانند تحلیل دادهها، پردازش زبان طبیعی، و یادگیری ماشین، پتانسیل بالایی برای بهبود اجرای این اصول و کاهش پیامدهای منفی مخاصمات دارند. این پژوهش با استفاده از روش توصیفی – تحلیلی و باهدف بررسی نقش هوش مصنوعی در اجرای اصول بنیادین مخاصماتی و تحلیل چالشهای مرتبط با آن انجام شده است. یافتهها نشان میدهند که هوش مصنوعی با تحلیل توانایی تحلیل حجم گستردهای از دادهها و شناسایی دقیق اهداف، میتواند از بروز درگیریهای غیرضروری جلوگیری کرده و تلفات غیرنظامیان را کاهش دهد. بااینحال، چالشهایی مانند دقت، شفافیت تصمیمات، امنیت دادهها و پاسخگویی در صورت بروز خطاها یا نقض حقوق بشر، نیازمند توجه ویژه هستند. برای استفاده اخلاقی و مؤثر از هوش مصنوعی در مخاصمات، تقویت همکاریهای بینالمللی و تدوین استانداردهای جهانی، همراه با ایجاد چارچوبهای قانونی و نظارتی جامع، پیشنهاد شده است. این پژوهش با ارائه تحلیلهای نوآورانه و پیشنهادهای عملی، گامی مهم در جهت استفاده بهینه از فناوریهای پیشرفته برای کاهش خشونت و ترویج صلح برمیدارد.
واژگان کلیدی: اصول بنیادین مخاصماتی، حقوق بشردوستانه، چالشها و فرصتها، مخاصمات مسلحانه، هوش مصنوعی
¯استناددهی (APA): محمودی، هادی؛ راعی دهقی، مسعود؛ انصاری مهیاری، علیرضا. (1404). تحلیل نقش هوش مصنوعی در بهبود اجرای اصول بنیادین مخاصماتی. مطالعات حقوقی فضای مجازی، 4(14)، 79-100.
مقدمه
در دهههای اخیر، تکنولوژی بهسرعت پیشرفت کرده و سیستمهای هوش مصنوعی بهعنوان ابزارهای کلیدی به حوزه نظامی نفوذ کردهاند. این فناوریها در مخاصمات مسلحانه و امنیت ملی نقش مهمی ایفا میکنند و پیشبینی میشود که عملیات جنگی آینده را به طور اساسی متحول کنند (Arkin, 2011: 571).
بسیاری از فرایندهای کلاسیک حقوق بینالملل با ورود هوش مصنوعی به این حوزه در حال تغییر هستند و در واقع حقوق نیز از این پیشرفت بیبهره نبوده و برای پایداری در این عرصه میبایست از روشها و علوم نوین بهرهمند باشند. در مخاصمه مدرن حضور فعال و مستقیم نیروهای انسانی نسبت به قبل بسیار کمتر شده است. البته ناگفته نماند که در برخی از کشورها چنین تکنولوژیهایی هنوز ورود پیدا نکرده؛ ولی همانگونه که نقش هوش مصنوعی در زندگی روزمره بی شک غیرقابلانکار بوده، در مخاصمات نیز دخیل است. فلسفه وجودی حقوق بشردوستانه ، ایجاد محدودیتهایی بر مخاصمه و حمایت از قربانیان اعم از نظامیان و غیرنظامیان است. اصول بنیادین حقوق بینالملل بشردوستانه، مانند تفکیک، تناسب و ضرورت، نقش بنیادینی در این حوزه دارند و رعایت آنها به تعدیل مخاصمه کمک میکند.
هوش مصنوعی تأثیرات عمیقی بر مخاصمات مسلحانه، از جمله افزایش دقت هدفگیری و بهبود کارایی نظامی با پردازش دادههای بزرگ دارد. این فناوری میتواند حضور مستقیم نیروهای انسانی را کاهش و خطرات جانی برای نظامیان را پایین بیاورد، همچنین به تحلیل و پیشبینی وضعیتهای جنگی کمک میکند. با بهرهگیری از قدرت پردازش بالا و توانایی تحلیل دادههای زیاد، سیستمهای هوش مصنوعی قادر به شناسایی الگوها و روندهای مخاصمات مسلحانه، تصمیمگیریهای هوشمندانه و اجرای عملیات بهینه بهعنوان حمله و دفاع هستند. بهعلاوه، استفاده از سیستمهای هوش مصنوعی در مخاصمات مسلحانه میتواند بهبود عملکرد نیروهای نظامی را به ارمغان آورده و به کاهش خسارات غیرنظامیان منجر شود. این سیستمها قادرند به طور خودکار و سریع، تحلیل و پردازش دادهها را به انجام برسانند و تصمیمات مبتنی بر اطلاعات دقیق را در زمانهای بحرانی اتخاذ کنند. همچنین با استفاده از سیستمهای هوش مصنوعی، میتوان بهبود عمدهای در زمینه تشخیص و هدایت هدفها، بهینهسازی استراتژیها و تاکتیکهای نظامی، و کاهش خطر و خسارات در جنگ و درگیریهای نظامی داشت (Arkin, 2011: 571).
باتوجهبه اهمیت و تأثیرگذاری سیستمهای هوش مصنوعی در مخاصمات مسلحانه، بسیاری از کشورها و سازمانهای نظامی سرمایهگذاریهای قابلتوجهی را در جهت توسعه و بهینهسازی این فناوری انجام دادهاند. تحقیقات و پروژههای مرتبط در حوزه هوش مصنوعی و مخاصمات مسلحانه در دانشگاهها، مراکز تحقیقاتی و شرکتهای فناوری انجام میشود. همچنین، همکاریهای بینالمللی و تشکیل سازمانها و انجمنهای مرتبط نیز در جهت تبادل دانش، تعیین استانداردها و توسعه مشترک پروژهها صورت میگیرد. بااینحال، همچنان چالشها و مسائلی در مورد استفاده از سیستمهای هوش مصنوعی در مخاصمات مسلحانه وجود دارد. بهعنوانمثال، مسائل اخلاقی و حقوقی مرتبط با استفاده از سیستمهای هوش مصنوعی در جنگ و تصمیمگیریهای نظامی بحثبرانگیز است. علاوه بر این، امنیت و حفاظت از اطلاعات مرتبط با سیستمهای هوش مصنوعی نیز از اهمیت بالایی برخوردار است. نظارت و پاسخگویی در صورت بروز خطاها و نقض حقوق بشر نیز از دیگر مسائل مهم است (Buehler, 2019: 50-64).
هدف از نگارش این مقاله، بررسی نقش سیستمهای هوش مصنوعی در بهبود اجرای اصول بنیادین مخاصماتی است؟ در پاسخ به این سؤال باید گفت؛ در شرایطی که فناوری بهسرعت در حال پیشرفت است، درک این نقش میتواند به کاهش خسارات غیرنظامی و بهبود رعایت حقوق بشری در میدانهای جنگ کمک کند، ازاینرو موضوعی حیاتی و ضروری برای پژوهش است. باتوجهبه اهمیت اصول بنیادین در استفاده از سیستمهای هوش مصنوعی در مخاصمات مسلحانه، لازم است که در طراحی، توسعه و استفاده از این سیستمها توجه ویژهای به این اصول شود. علاوه بر این، نیاز به توجه به جنبههای اخلاقی و حقوقی نیز وجود دارد تا آثار جانبی مخربی که ممکن است ناشی از استفاده نادرست از سیستمهای هوش مصنوعی در مخاصمات مسلحانه به وجود آید، کاهش یابد؛ بنابراین، با رشد روزافزون فناوری و پیشرفت سیستمهای هوش مصنوعی، انتظار میرود که در آینده نقش این سیستمها در مخاصمات مسلحانه و امنیت بیشتر شود. باتوجهبه این تحولات، تحقیقات و توسعه در زمینه سیستمهای هوش مصنوعی در مخاصمات مسلحانه باید ادامه یابد تا بتوان از این فناوری بهرهبرداری حداکثری و همچنین مسائل مرتبط با این فناوری را بهخوبی مدیریت کرد. تاکنون تحقیقات بسیاری در حوزه سیستمهای هوش مصنوعی و مخاصمات مسلحانه صورتگرفته است. اما همچنان نیاز به ارتقای علمی و فناورانه در این زمینه هست. پژوهشهای اخیر نشان دادهاند که با استفاده از رویکردهای نوین میتوان به بهبود قابلتوجهی در عملکرد سیستمهای هوش مصنوعی در مخاصمات دستیافت.
1. اصول اساسی حقوق بینالملل بشردوستانه
اصول حقوق بشردوستانه، بهمنظور کاهش آثار منفی مخاصمات بر انسانها طراحی شده است. این قوانین با ارائه اصولی همچون تمایز میان افراد و اهداف نظامی از غیرنظامی، همچنین ایجاد تعادل میان اهداف نظامی و آسیبهای غیرضروری به غیرنظامیان، تلاش میکند تا فعالیتهای جنگی و رفتار طرفین درگیر را محدود کند. به همین دلیل، بخش عمدهای از توجه این قواعد بر محافظت از افراد در خلال جنگها یا هر گونه درگیری مسلحانه دیگر متمرکز است (khorram-manesh, 2021: 261).
حقوق بشردوستانه به مجموعهای از قوانین بینالمللی اطلاق میشود که حقوق افراد و کشورهای درگیر در درگیریهای مسلحانه، چه در سطح بینالمللی و چه در سطح داخلی، را مشخص کرده و وظایف آنها را در این مخاصمات تعریف میکند. به طور کلی، حقوق بشردوستانه به معنای حفاظت از حقوق انسانی در شرایط جنگی است. حقوق بشردوستانه بینالمللی در هر نوع جنگی که ممکن است روی دهد اعمال میشود. موضوع آن حمایت از اشخاصی است که بنا به عللی (مانند مجروحیت، بیماری، اسارت و...) در جنگ مشارکت نداشتهاند و همچنین روشها و ابزار نظامی را به نفع همه در حین جنگ محدود میکند. این قواعد از مقررات حقوق بینالملل بشر، سرچشمه گرفتهاند که در هر موقعیتی قابلاعمال هستند (ضیایی بیگدلی، 82:1382(
یکسری اصول در زمینه حقوق بینالملل بشردوستانه، وجود دارند که بدون توجه به شرایط خاص یا وجود مخاصمه، به کار گرفته میشوند. این اصول بهعنوان بخشی از اصول بنیادین حقوق بشردوستانه محسوب میگردند و در سطحی مشابه با قواعد عرفی و ارگا اومنس استفاده میشوند (Pashkov, 2024: 445-452).
با استناد به کنوانسیون 1864 ژنو، اعلامیه سنپترزبورگ، حقوق لاهه ، کنوانسیونهای چهارگانه ژنو پروتکلهای الحاقی سال 1997 ، امکان استخراج اصول حاکم بر مخاصمات مسلحانه، با تأکید بر قواعد محدودکنندة کاربرد تسلیحات، وجود دارد(Mohamed, 2024: 50).
اصول بنیادین حقوق بشردوستانه بینالمللی، قواعدی هستند که محدود به زمان و مکان خاصی در مخاصمات مسلحانه نمیباشند و در هر گونه شرایطی از جنگ میتوان اعمال نمود. همچنین، تسلیحاتی که درگذشته مورد استفاده بودهاند و تسلیحاتی که در آینده به کار گرفته خواهند شد، تحت این اصول قرار میگیرند و محدودیتهایی را به خود اعمال میکنند. در ادامه به چند مورد مهم از این اصول اشاره میگردد.
1-1 اصل تناسب
اصل تناسب اصلی است که به دنبال برقراری تعادل میان ضرورت نظامی و اصول بشردوستانه در جنگ ها می باشد. این قاعده حملات نظامی به اهداف مشروع را که منجر به تلفات غیرنظامیان، مجروح شدن آنها و آسیب به اهداف غیرنظامی میشود، در صورتی که این آسیبها نسبت به مزایای نظامی قابل پیشبینی و مستقیم، غیرمتناسب باشد، ممنوع میکند. برابر اصل تناسب، طرفهای متخاصم در مخاصمه مسلحانه، در جایی که مزایای نظامی مورد انتظارشان غالب نباشد مجاز به ایراد خسارت تبعی به غیرنظامیان نمیباشند. این اصل بهعنوان بخشی از حقوق بینالملل عرفی محسوب میشود و همه دولتها ملزم به رعایت آن هستند (Newalsing, 2008: 255-279).
طبق اصل تناسب، در حین انجام عملیات نظامی، کشورهای درگیر باید از روشها و وسایلی استفاده کنند که کمترین میزان آسیب تصادفی به اهداف غیرنظامی وارد گردد. (شریفی طراز کوهی و صیاد نژاد، 1399: 551-575). در هنگام حمله به اهداف مشروع، باید از تکنیکهایی استفاده کرد که تأثیرات آنها به محدودکردن نیروهای دشمن از جبهه نبرد منتهی شود.
بنابراین، درصورتیکه پیش از مورد هدف قراردادن هدف نظامی آسیبدیدن اهداف غیرنظامی یا مرگ یا مجروح شدن آنها پیشبینی شود لازم است بررسی و معلوم شود مزیت نظامی که از این حمله به دست خواهد آمد در مقایسه با خسارات تبعی به غیرنظامیان بیشتر است یا خیر. با نگاه از چنین زاویهای، درصورتیکه سامانههای تسلیحاتی خودگردان و هوشمند قادر به تفکیک میان نظامیان و غیرنظامیان نباشند قادر به پیروی از اصل تناسب هم نخواهند بود. هرچند بهطورکلی نیروی هوایی آمریکا بر آن است که اصل تناسب در حمله حکمی ذاتاً ذهنی است.
2-1 اصل منع درد و رنج بیهوده
اصل ممنوعیت درد و رنج بیهوده یکی از اصول اساسی در حقوق مخاصمات مسلحانه و ازاینرو از اصول بنیادین حقوق کنترل تسلیحات است. این اصل بهعنوان یکی از اصول معاهدهای و عرفی حقوق بشردوستانه است که در مخاصمات مسلحانه قابلاعمال بوده و برای همه دولتها الزامآور است. حقوق بینالملل بشردوستانه استفاده از هر نوع ابزار یا روش جنگی را که موجب ایراد درد و رنج بیهوده و غیرضروری بر نظامیان شود، منع میکند. همانطور که در اعلامیه سنپترزبورگ اشاره شده است، ارتکاب هر نوع عملی بیش از تضعیف قوای دشمن و خارجکردن رزمندگان از کارزار، بیهوده است و مزیت نظامی محسوب نمیشود. بنا به اعلامیه سنپترزبورگ، استفاده از گلولههای انفجاری که منجر به درد و رنج بیدلیل میشود، و همچنین استفاده از تسلیحاتی که موجب مرگ قطعی فرد میشود، ممنوع شده است. همچنین، مطابق کنوانسیون 1907 لاهه ، وارد نمودن درد و رنج بیهوده بر نظامیان دشمن ممنوع است. کنوانسیونهای چهارگانه، در خصوص قواعد جنگی ساکت هستند و اغلب به وضع قواعد بشردوستانه اختصاصیافتهاند. اما پروتکلهای الحاقی1977 که تکمیلکننده قواعد کنوانسیونهای چهارگانهاند، قواعدی را برای منع درد و رنج بیهوده وضع کردهاند(Goniewicz, 2016: 280-284).
سوالی که در ارتباط با این اصل به وجود میآید این است که چگونه میتوان درد و رنج غیرضروری و بیش از حد را محاسبه و ارزیابی کرد؟ حقوق بشردوستانه کدام اقدامات را بهعنوان سبب وارد آمدن درد و رنج بیهوده تلقی میکند؟ اگرچه تعریفی خاص و مشخص در این زمینه وجود ندارد، دیوان بینالمللی دادگستری در پرونده سلاحهای هستهای، آسیبها و رنجهای غیرضروری را بهعنوان زیانی بیشتر از آنچه که برای رسیدن به اهداف مشروع نظامی، اجتنابناپذیر باشد، شناخته است. کمیته بینالمللی صلیب سرخ نیز بر این باور است که ایجاد معلولیت دائمی یا مرگ حتمی قربانی، میتواند بهعنوان معیار اصلی تشخیص درد و رنج بیش از حد و غیرضروری در نظر گرفته شود.
1-3 اصل تفکیک
اصل تفکیک بهعنوان یکی از اساسیترین اصول حقوق بینالملل بشردوستانه است. برابر این اصل، طرفهای درگیر و نیروهای نظامی موظفاند حملات خود را تنها بر روی رزمندگان و اهداف نظامی انجام دهند و از غیرنظامیان و اهداف غیرنظامی حمایت و محافظت کنند. علاوه بر این، برابر اصل تفکیک لازم است که مبارزان بتوانند نسبت به اوضاعواحوال، قضاوتی منطقی داشته باشند تا بدین واسطه بتواند میان افراد نظامی و غیرنظامی و مقاصد نظامی و غیرنظامی تفکیک قائل شوند و صدمه به غیرنظامیان را به حداقل برسانند (Schindler & Toman, 2004: 91-93).
باتوجهبه این اصل که یکی از اصول بنیادین در حقوق بینالملل موضوعه و عرفی است، نهتنها باید از حمله نظامی مستقیم به افراد و اهداف غیرنظامی خودداری شود، بلکه در حمله به اهداف نظامی نیز باید بادقت عمل کرد تا آسیبی به اهداف غیرنظامی نرسد (قرباننیا و اخگری بناب، 1390: 7)
کنفرانسهای صلح لاهه، با تدوین قواعد و نحوه اجرای عملیات نظامی در سالهای 1899 و 1907، تاکید زیادی بر اهمیت اصل تفکیک داشتند. میتوان گفت مبنای پروتکل اول الحاقی، اصل تفکیک است. بر اساس پروتکل اول، نهتنها غیرنظامیان نباید مورد حمله قرار گیرند، بلکه در هنگام حمله به نظامیان و اهداف مشروع دشمن نیز باید چنان احتیاط و دقتی به خرج داد که آسیبی به غیرنظامیان و اهداف غیرنظامی وارد نشود(Grace & et al, 2023: 2).
بنیان حقوق بشردوستانه در خصوص هدایت و انجام عملیات نظامی اصل تفکیک است. دیوان بینالمللی دادگستری در رأی مشورتی 1996 اصل تفکیک را اولین، مهمترین و سختگیرانهترین اصل حاکم بر مخاصمات مسلحانه دانسته است. به استناد بند (3) ماده (52) پروتکل الحاقی دولتها باید در مواردی که درباره نظامی یا غیرنظامی بودن اهدافی از قبیل مدرسه، اماکن مذهبی واستراحتگاها، شک دارند، اصل تفکیک را به طور مطلق بر غیرنظامی بودن آن اهداف اعمال کنند. همچنین برابربند (4) ماده (51) پروتکل الحاقی، تاکتیکها و ابزارهای جنگی که استفاده از آنها برای حمله به یک هدف نظامی مشخص ممکن نیست، به عنوان حملات غیرنظامی شناخته میشوند. همچنین، حملاتی که از روشها یا ابزار جنگی استفاده میکنند که تأثیرات آنها را نمیتوان بر اساس قوانین بینالمللی معمول محدود کرد، با توجه به پروتکلهای مربوطه ممنوع محسوب میشوند(International Court of Justice, 2018: 22).
از عمدهترین نگرانیها دررابطهبا این اصل آن است که سامانههای تسلیحاتی خودگردان احتمالاً نمیتوانند میان نظامیان و غیرنظامیان و یا دیگر افرادی که ممکن است در موقعیت مخاصمه حضور داشته باشند تفکیک قائل شوند. ازاینرو ممکن است ادعا شود که سامانه تسلیحاتی خودگردان غیرقانونی است. در حال حاضر، اصل تفکیک بهعنوان یک قاعده عرفی در حقوق بینالملل شناخته میشود که تمامی کشورهای جهان، فارغ از اینکه عضو معاهدات بشردوستانه بینالمللی باشند یا خیر، موظف به رعایت رعایت آن هستند. همچنین، اساسنامه دیوان کیفری بینالمللی حملات عمدی به غیرنظامیانی که در درگیریها نقشی مستقیم ندارند را بهعنوان جنایت جنگی محسوب میکند (انصاری مهیاری و محمودی، 1401: 19-36)
2- تأثیر فناوریهای پیشرفته در مخاصمات مسلحانه
همزمان با جنگ جهانی دوم و استفاده از بمب اتم ، ورود فناوریهای نوین در این عرصه رقم خورد و یکی از فناوریهایی که بهسرعت درحالرشد بوده و اکثر ابعاد زندگی بشر را دربرگرفته، هوش مصنوعی است. هوش مصنوعی با ورود به حوزه مخاصمات مسلحانه بسیاری از مفاهیم کلاسیک حقوق بینالملل بشردوستانه را دستخوش تغییرات کرده است. بر اساس گزارشهای کمیته بینالمللی صلیب سرخ بالاخص گزارش اخیر آن که در سال 2019 با عنوان صلیب سرخ، حقوق بشردوستانه بینالمللی و چالشهای مخاصمات مسلحانه معاصر منتشر شده صراحتاً به چالشهای جدید در خصوص مخاصمات مسلحانه اشاره نموده است. در این گزارش از جنگ سنتی و مدرن نام برده شده و از فناوریهای جدید بهخصوص هوش مصنوعی بهعنوان جدیدترین چالش حقوق بینالملل بشردوستانه یاد شده است. یکی از حوزههای استفاده از هوش مصنوعی و یادگیری ماشینی کنترل نظامی نرمافزاری است. حقوق بینالملل بشردوستانه بهعنوان یک رژیم حقوقی بر نحوه رفتار طرفهای درگیر در مخاصمات مسلحانه حاکم است و میکوشد از یک سو از غیرنظامی، نظامی و افراد غیر درگیر در مخاصمه در برابر آسیبها حمایت کند و از طرف دیگر درصدد محدودکردن ابزارها و روشهای جنگی است.
بهطورکلی، کاربردهای نظامی هوش مصنوعی دو بعد عمده و کلی را پوشش میدهد: نخست، استفاده از هوش مصنوعی در جهت بهبود عملکرد سیستمهای تسلیحات سنتی و موجود و دوم، استفاده از هوش مصنوعی برای تصمیمگیری. بااینوصف هوش مصنوعی بهعنوان یک فناوری پیشرفته با کاربرد دوگانه، کاربرد عمیق و گستردهای در سیستمها و تجهیزات تسلیحاتی داشته و مطمئناً در پروژههای نظامی آینده نقش مهمی ایفا خواهند نمود. این فناوری میتواند سریعتر و دقیقتر از انسان تصمیمگیری کند که البته این تصمیمات میتواند دارای نواقصی نیز باشد و به همین جهت ضروری است که هنجارگذاری بهصورت عام در این زمینه صورت گیرد. عدهای از نظریهپردازان در این زمینه بر این باورند که سامانههای مجهز به هوش مصنوعی غیرقابلپیشبینی و غیرقابلبررسی هستند و ازاینرو انسان نمیتواند کنترل معنادار بر آنها داشته و همچنین عدم شفافیت دستورالعملهای هوش مصنوعی ضمانت اجرای قانونی برای استفاده از آن را دشوار میکند (Beard, 2018).
ظهور فناوری در مخاصمات مسلحانه سؤالها و چالشهای اخلاقی و حقوقی را برای حقوق بینالملل بشردوستانه پدید آورده است. استفاده از سلاحهای مجهز به هوش مصنوعی در مخاصمات میتواند به بهبود اعمال اصول بنیادین کمک کند. هوش مصنوعی با توانایی جمعآوری و تحلیل دادههای متنوع مانند تصاویر، فیلمها، نقشهها و اطلاعات محیطی، میتواند به طور دقیقتری ارزیابی کند که چه تصمیماتی باید در مورد حمله با رعایت این اصول گرفته شود. بااینحال، استفاده از این سلاح نیاز به توجه به مسائل امنیتی، حریم شخصی و اخلاقی دارد. یکی از چالشها افزایش تهدیدات سایبری است. درصورتیکه سیستمهای هوش مصنوعی مستقر در سلاحهای نظامی دچار ضعف امنیتی شوند، میتواند سبب دسترسی به دادههای حساس شود و در نتیجه باعث تهدید امنیت ملی شود. توجه به این نکته ضروری است که تعهد اجرای حقوق بشردوستانه و انجام ارزیابیهای مرتبط با اصول بنیادین مخاصماتی تا زمانی مجاز خواهد بود که فرماندهی سلاحهای مجهز به هوش مصنوعی با فرمانده باقی بماند. در نتیجه، هر چند هوش مصنوعی میتواند به بهبود اعمال این اصول در مخاصمات کمک کند، اما الزام است که مسائل اخلاقی، امنیتی و حریم شخصی بهطورجدی مورد بررسی و توجه قرار گیرند. برای این منظور، نیاز به تدوین قوانین و ضوابط مناسب و ایجاد سیستمهای حفاظتی است تا از استفاده نادرست و خطرناک از هوش مصنوعی در جنگ جلوگیری شود (Gaggioli, 2018: 184-194).
3- هوش مصنوعی و اصول بنیادین مخاصماتی
استفاده از سیستمهای هوش مصنوعی در مخاصمات مسلحانه و نقش آنها در بهبود اجرای اصول بنیادین مخاصماتی از منظر حقوق بینالملل بسیار حائز اهمیت است. در این زمینه، بسیاری از مدارک و موافقتنامههای بینالمللی وجود دارند که به استفاده از فناوریهای هوش مصنوعی در مخاصمات مسلحانه و تضمین رعایت اصول بنیادین حقوق بینالملل انسانی پرداختهاند. یکی از مهمترین موافقتنامههای بینالمللی در این زمینه، قطعنامه 2270 شورای امنیت سازمان ملل متحد است که در سال ۲۰۱۶ به تصویب رسید. این قطعنامه متناسب با تحولات فناورانه، برای اولین بار به استفاده از فناوریهای هوش مصنوعی در عملیات نظامی و مخاصمات مسلحانه اشاره کرد و تأکید کرد که هرگونه استفاده از این فناوری باید با اصول بنیادین حقوق بینالملل بشر دوستانه مطابقت داشته باشد(Bode, 2018: 293-318). علاوه براین، توافقنامههای دیگری همچون کنوانسیون بینالمللی بر زنده بودن و نیرویهای دیوانه در مخاصمات مسلحانه نیز به واجد شرایط بودن و استفاده از سیستمهای هوش مصنوعی در مواجهه با مخاصمات مسلحانه اشاره کردهاند، با این تأکید که هرگونه استفاده باید با اصول انسانی و حقوقی مطابقت داشته باشد. اضافه کردن سیستمهای هوش مصنوعی به مخاصمات مسلحانه به دلیل قابلیتهایشان در تحلیل دادههای پیچیده، پیشبینی رفتارها، و اتخاذ تصمیمات به طور خودکار، میتواند به بهبود اجرای اصول بنیادین مخاصماتی کمک کند. به عنوان مثال، سیستمهای هوش مصنوعی میتوانند بهصورت خودکار تصمیمهای انسانی را ارزیابی کرده و از نظر اخلاقی و قانونی مورد بررسی قرار دهند، که این امر به تضمین رعایت اصول حقوق بینالملل انسانی و انسانیت در مخاصمات مسلحانه کمک میکند. علاوه بر این، استفاده از سیستمهای هوش مصنوعی در مخاصمات مسلحانه میتواند منجر به افزایش توانمندیهای تحلیلی و پیشبینی در مقابله با تهدیدها و امکانات جنگی شود(Metcalf, 2022).
این سیستمها میتوانند اطلاعات جغرافیایی، نظامی، و اطلاعات مربوط به شرایط جوی را به طور هوشمندانه تحلیل کرده و اقدامات مؤثرتری را پیشنهاد دهند. بهعلاوه، با بهرهگیری از الگوریتمهای یادگیری ماشینی، این سیستمها میتوانند از تجربیات گذشته و دادههای بزرگ بهره ببرند و درک بهتری از رفتارها و الگوهای مخاطرهآمیز را به دست آورند. بهطورکلی، سیستمهای هوش مصنوعی در مخاصمات مسلحانه میتوانند بهبودهای چشمگیری در زمینههایی از جمله کاهش تلفات غیرنظامیان، افزایش دقت و کارایی عملیات نظامی، و توسعه راهکارهای دیپلماسی و صلحآمیز داشته باشند. این اقدامات همچنین میتوانند باعث ایجاد سیستمهای هوش مصنوعی اخلاقیتر شده و از رعایت اصول بنیادین مخاصماتی تاحدامکان اطمینان حاصل نمایند. در نتیجه، استفاده از سیستمهای هوش مصنوعی در مخاصمات مسلحانه نهتنها به بهبود عملکرد نظامی و امنیت منطقهای و جهانی کمک میکند، بلکه میتواند با رعایت اصول بنیادین مخاصماتی، به تأسیس سیستمهای هوش مصنوعی اخلاقیتر و انسانیتر در مواجهه با چالشهای مخاصمات مسلحانه انجام شود.
1-3 مزایای هوش مصنوعی در مخاصمات
استفاده از سیستمهای هوش مصنوعی در اجرای مناسب اصول بنیادین مخاصماتی میتواند به بهبود کارایی و کاربردیبودن فرایند حلوفصل مخاصمات کمک کند.
1-تحلیل دادههای حجیم و پیچیده
سیستمهای هوش مصنوعی قادر به تجزیهوتحلیل دادههای حجیم و پیچیده مرتبط با مخاصمات هستند و بدین ترتیب پیشبینیهای دقیقی درباره تحولات آتی مخاصمات ارائه میدهند. این امکان به اپراتورها کمک میکند تا الگوهای پنهان و اطلاعات مفیدی که قبلاً شناسایی نشده بودند را شناسایی کرده و برای حل مسائل مخاصماتی استفاده کنند (Mao, 2023: 1-17).
با استفاده از دادههای تاریخی، الگوهای رفتاری، و اطلاعات جغرافیایی، این سیستمها میتوانند سناریوهای مختلف را شبیهسازی کرده و تأثیرات احتمالی هر تصمیم را ارزیابی کنند. بهعنوانمثال، الگوریتمهای یادگیری عمیق میتوانند در تحلیل تصاویر ماهوارهای و شناسایی تحرکات نظامی یا تغییرات در وضعیت غیرنظامیان بسیار مؤثر باشند. همچنین، پردازش زبان طبیعی میتواند در تحلیل مکالمات، اسناد، و گزارشهای خبری برای استخراج اطلاعات کلیدی و شناخت تمایلات و احساسات عمومی نقش مهمی ایفا کند. این تواناییها نهتنها به بهبود تصمیمگیریهای استراتژیک کمک میکنند، بلکه میتوانند در شناسایی و جلوگیری از وقوع درگیریها و کاهش تلفات و خسارات انسانی نیز مؤثر باشند. بهطورکلی، بهرهگیری از هوش مصنوعی در مخاصمات مسلحانه میتواند به یک تحول اساسی در نحوه مدیریت و حلوفصل درگیریها منجر شود، چرا که دادههای حجیم و پیچیده بهسرعت و دقت تحلیل میشوند و اطلاعات ارزشمندی برای تصمیمگیری فراهم میآورند.
2-1-3 افزایش دقت در تجزیهوتحلیل مؤثر
سیستمهای هوش مصنوعی میتوانند بر اساس دادههای گذشته و الگوریتمهای پیشبینی، پیشبینیهای دقیقی درباره روند و تحولات آتی مخاصمات ارائه دهند و نقاط ضعف و قوت استراتژیهای موجود را شناسایی کنند. این امکان به تصمیمگیران کمک میکند تا به روشهای بهتری برای مدیریت و حل مسائل مخاصماتی رسیدگی کنند. با تحلیل دادههای گذشته و شناسایی الگوها و روندهای موجود، سیستمهای هوش مصنوعی میتوانند بهصورت خودکار و سریع به پیشبینیهایی درباره نحوه توسعه و پیشرفت مخاصمات بپردازند. این تحلیلها شامل ارزیابی تأثیرات تصمیمات گذشته، شناسایی عوامل کلیدی مؤثر بر نتایج، و پیشنهاد راهحلهای بهینه میشود. بهعنوانمثال، الگوریتمهای یادگیری ماشینی میتوانند با تحلیل دادههای مربوط به منابع انسانی، لجستیک، و وضعیت میدانی، پیشنهاداتی برای بهبود تخصیص منابع و افزایش کارایی عملیات ارائه دهند (Mao, 2023: 1-17).
این پیشبینیها میتوانند به تصمیمگیران کمک کنند تا با برنامهریزی مؤثرتری به رویکردهای مختلف برای مدیریت مخاصماتی پرداخته و بهبودیهای لازم را اعمال کنند. همچنین، سیستمهای هوش مصنوعی میتوانند در ارزیابی ریسک و مدیریت بحران نیز نقش بسزایی ایفا کنند. با تحلیل دادههای بلادرنگ از منابع مختلف نظیر حسگرها، تصاویر ماهوارهای، و گزارشهای میدانی، این سیستمها میتوانند به شناسایی تهدیدات نوظهور و ارزیابی فوری وضعیتها بپردازند. این اطلاعات میتوانند به تصمیمگیران کمک کنند تا اقدامات پیشگیرانه و واکنشهای سریعتری اتخاذ کنند که این امر میتواند در کاهش تلفات و خسارات بسیار مؤثر باشد. علاوه بر این، تحلیلهای هوش مصنوعی میتوانند به بهبود همکاری و هماهنگی بین تیمهای مختلف کمک کنند. با ارائه یک نمای کلی و یکپارچه از وضعیتهای پیچیده، تمامی اعضای تیم میتوانند به اطلاعات مشابهی دسترسی داشته باشند و تصمیمات هماهنگتری بگیرند. این توانایی بهویژه در شرایط بحرانی و زمانهای حساس بسیار حیاتی است. در نهایت، استفاده از هوش مصنوعی در تحلیل دادههای حجیم و پیچیده میتواند به افزایش دقت و سرعت تصمیمگیریها منجر شود و از این طریق، به بهبود مدیریت و حل مخاصمات کمک شایانی کند. باتوجهبه این مزایا، پیادهسازی سیستمهای هوش مصنوعی پیشرفته میتواند به یک تحول اساسی در نحوه برخورد با مسائل مخاصماتی منجر شود (Mao, 2023: 1-17).
3-1-3 کاهش زمان و هزینههای مرتبط با حل مخاصمات
علاوه بر کاهش زمان و هزینهها، استفاده از سیستمهای هوش مصنوعی میتواند دقت و انسجام در فرایند حل مخاصمات را نیز افزایش دهد. این سیستمها بهصورت اتوماتیک و بدون نیاز به مداخله انسانی، میتوانند مسائل را شناسایی و راهحلهای مؤثری را پیشنهاد دهند. با استفاده از الگوریتمهای پیشرفته و تکنیکهای یادگیری ماشینی ، این سیستمها میتوانند بهصورت سریع و دقیق الگوها و روشهای مؤثر در حل مخاصمات را شناسایی کنند و از این طریق، راهحلهای جامعتری را ارائه دهند. این سیستمها همچنین میتوانند بهصورت مداوم از تجربیات گذشته بیاموزند و خود را بهبود دهند. با استفاده از تکنیکهای یادگیری تقویتی، هوش مصنوعی میتواند از بازخوردهای موجود در فرایند حل مخاصمات بهرهبرداری کرده و الگوریتمهای خود را بهینهسازی کند. این بهبودهای مستمر، باعث میشود که سیستمها در طول زمان کارآمدتر و دقیقتر شوند. یکی دیگر از مزایای استفاده از سیستمهای هوش مصنوعی، توانایی آنها در پردازش حجم زیادی از دادهها بهصورت همزمان است. این ویژگی به آنها اجازه میدهد تا بهسرعت اطلاعات جدید را پردازش کنند و تحلیلهای بلادرنگ ارائه دهند. این قابلیت میتواند در شرایط بحرانی که نیاز به تصمیمگیری سریع و دقیق است، بسیار مؤثر باشد (Mirzekhanov & Trunov , 2022: 713-721)
افزایش شفافیت و قابلیت ردگیری تصمیمات نیز از دیگر مزایای استفاده از هوش مصنوعی در حل مخاصمات است. این سیستمها میتوانند تمامی مراحل تحلیل داده و تصمیمگیری را ثبت و ذخیره کنند که این امر میتواند به بازبینی و ارزیابی عملکردها کمک کند. این شفافیت میتواند اعتماد بیشتری در فرایند حل مخاصمات ایجاد کند و از سوءتفاهمها و اشتباهات جلوگیری کند. در نهایت، سیستمهای هوش مصنوعی میتوانند با ارائه گزارشهای جامع و دقیق، به بهبود ارتباطات و همکاری بین نهادها و سازمانهای مختلف کمک کنند. این گزارشها میتوانند بهعنوان یک ابزار قدرتمند در مذاکرات و تصمیمگیریها مورد استفاده قرار گیرند و به توافقات سریعتر و منصفانهتر منجر شوند. بهطورکلی، استفاده از هوش مصنوعی در حل مخاصمات میتواند به بهبود کارایی، کاهش هزینهها، افزایش دقت، و تسریع فرایندها کمک کند. این مزایا نشان میدهند که پیادهسازی سیستمهای هوش مصنوعی پیشرفته میتواند به تحولی اساسی در نحوه مدیریت و حلوفصل مخاصمات منجر شود.
4-1-3 ارائه راهحلهای شخصیسازیشده
سیستمهای هوش مصنوعی میتوانند باتوجهبه ویژگیها و نیازهای هر مخاصمه، راهحلهای شخصیسازی شده ارائه دهند. این راهحلها با رعایت اصول بنیادین مخاصماتی و موازی با نیازهای طرفین، بهبودبخشیدن به فرایند حل مسائل مخاصماتی میتوانند. سیستمهای هوش مصنوعی میتوانند باتوجهبه ویژگیها و نیازهای هر مخاصمه، راهحلهای شخصیسازی شده ارائه دهند (Mao, 2023: 1-17)
5-1-3 کاهش زمان و هزینههای مرتبط با حل مخاصمات
علاوه بر کاهش زمان و هزینهها، استفاده از سیستمهای هوش مصنوعی میتواند دقت و انسجام در فرایند حل مخاصمات را نیز افزایش دهد. این سیستمها بهصورت اتوماتیک و بدون نیاز به مداخله انسانی، میتوانند مسائل را شناسایی و راهحلهای مؤثری را پیشنهاد دهند. با استفاده از الگوریتمهای پیشرفته و تکنیکهای یادگیری ماشینی، این سیستمها میتوانند بهصورت سریع و دقیق الگوها و روشهای مؤثر در حل مخاصمات را شناسایی کنند و از این طریق، راهحلهای جامعتری را ارائه دهند. این سیستمها همچنین میتوانند بهصورت مداوم از تجربیات گذشته بیاموزند و خود را بهبود دهند. با استفاده از تکنیکهای یادگیری تقویتی، هوش مصنوعی میتواند از بازخوردهای موجود در فرایند حل مخاصمات بهرهبرداری کرده و الگوریتمهای خود را بهینهسازی کند. این بهبودهای مستمر، باعث میشود که سیستمها در طول زمان کارآمدتر و دقیقتر شوند. یکی دیگر از مزایای استفاده از سیستمهای هوش مصنوعی، توانایی آنها در پردازش حجم زیادی از دادهها بهصورت همزمان است. این ویژگی به آنها اجازه میدهد تا بهسرعت اطلاعات جدید را پردازش کنند و تحلیلهای بلادرنگ ارائه دهند. این قابلیت میتواند در شرایط بحرانی که نیاز به تصمیمگیری سریع و دقیق است، بسیار مؤثر باشد (Schraagen, 2023: 1719-1729)
این راهحلها میتوانند با ارائه گزینههای متنوع و شخصیسازی شده، اطمینان حاصل کنند که هر طرف به بهت. ین راهحل برای موقعیت مورد نظر خود دست یابد. این نوع شخصیسازی در حل مسائل مخاصماتی، به کاهش احتمال ابهامات و سردرگمیها و بهبود فرایند ارتباط و تعامل بین طرفین کمک میکند. بهاینترتیب، این سیستمها با ارائه راهحلهایی متناسب با شرایط خاص هر مخاصمه، به بهبود کارایی و کیفیت فرایند حل مسائل مخاصماتی کمک میکنند.
6-1-3 راهحلهای خلاقانه برای مسائل مخاصماتی
مزایای استفاده از سیستمهای هوش مصنوعی در اجرای مناسب اصول بنیادین مخاصماتی بسیار گسترده و متنوع هستند. یکی از این مزایا، ارتقای امکانات پیشبینی و ارائه راهحلهای خلاقانه برای مسائل مخاصماتی است. با بهرهگیری از الگوریتمهای یادگیری ماشینی و تکنیکهای تحلیل داده، سیستمهای هوش مصنوعی میتوانند الگوها و روندهای مختلفی که در مسائل مخاصماتی وجود دارد را شناسایی کرده و بر اساس آنها، پیشبینیهایی دقیق ارائه دهند. این پیشبینیها میتوانند به تصمیمگیران کمک کنند تا با استفاده از اطلاعات بهدستآمده، راهحلهایی خلاقانه برای حل مسائل مخاصماتی پیشنهاد کنند. بهعنوانمثال، سیستمهای هوش مصنوعی میتوانند با تحلیل دادههای مربوط به مخاصمات گذشته و شناسایی الگوهایی که به موفقیت در حل مسائل منجر شدهاند، راهحلهای جدیدی ارائه دهند که ممکن است از راهحلهای سنتی متفاوت و خلاقانهتر باشند (Shukla, 2023).
باتوجهبه قابلیتهای سیستمهای هوش مصنوعی در تحلیل داده و پیشبینی، میتوان انتظار داشت که این سیستمها به طور مداوم از تجربیات گذشته یاد بگیرند و راهحلهایی را پیشنهاد دهند که با اصول بنیادین مخاصماتی سازگاری داشته باشند. این امکانات به تصمیمگیران کمک میکنند تا به دیدگاههای جدید و خلاقانهتری در حل مسائل مخاصماتی دست یابند و رویکردهایی نوآورانهتر را به این مسائل اعمال کنند.
2-3 نتایج بهبود اجرای اصول مخاصمات
نتایج بهبود اجرای مناسب اصول بنیادین مخاصماتی با استفاده از سیستمهای هوش مصنوعی میتواند تحولات گستردهای را در مدیریت و حلوفصل مسائل مخاصماتی به همراه داشته باشد. با استفاده از سیستمهای هوش مصنوعی اصول بنیادین حقوق بینالملل مخاصمات مسلحانه، نظیر تمایز، تناسب، و احتیاط، با بهرهگیری از تواناییهای هوش مصنوعی در تحلیل دقیق دادهها و پیشبینیهای هوشمندانه، میتوانند به نحو بهتری اجرا شوند. سیستمهای هوش مصنوعی قادرند حجم عظیمی از اطلاعات و دادههای مربوط به مخاصمات را بهسرعت و دقت تحلیل کنند و از این طریق، به تصمیمگیران کمک کنند تا تصمیماتی مبتنی بر دادههای دقیق و بهروز اتخاذ کنند. بهعنوانمثال، اصل تمایز که بر تفکیک بین اهداف نظامی و غیرنظامی تأکید دارد، میتواند با استفاده از تحلیلهای پیشرفته هوش مصنوعی دقیقتر و مؤثرتر اجرا شود. سیستمهای هوش مصنوعی میتوانند با تحلیل تصاویر ماهوارهای و دادههای میدانی، به شناسایی بهتر و سریعتر اهداف نظامی کمک کنند و از این طریق، از وقوع تلفات غیرنظامی جلوگیری کنند. همچنین، در زمینه اصل تناسب که به ارزیابی میزان خسارات و مزایای نظامی عملیات میپردازد، هوش مصنوعی میتواند با مدلسازی دقیق و تحلیل دادههای گذشته، به تصمیمگیران کمک کند تا تصمیماتی متناسب و متعادل اتخاذ کنند. اصل احتیاط نیز که بر اتخاذ تدابیر لازم برای کاهش تلفات و خسارات تأکید دارد، میتواند با استفاده از پیشبینیهای هوشمندانه هوش مصنوعی به نحو بهتری اجرا شود. این سیستمها میتوانند با تحلیل دادههای بلادرنگ و ارائه هشدارهای زودهنگام، به جلوگیری از وقوع فجایع انسانی و زیستمحیطی کمک کنند.
علاوه بر این، استفاده از هوش مصنوعی در تحلیل و مستندسازی وقایع مخاصماتی میتواند به افزایش شفافیت و پاسخگویی در این زمینه کمک کند. ثبت دقیق و جامع اطلاعات مربوط به عملیات و تحلیلهای انجامشده، میتواند در فرایندهای قضایی و تحقیقاتی بینالمللی مورداستفاده قرار گیرد و به اجرای عدالت کمک کند. یکی از نتایج مهم این بهبودها، کاهش زمان و هزینههای مرتبط با فرایند حل مسائل مخاصماتی است. با استفاده از سیستمهای هوش مصنوعی، میتوان زمان لازم برای تحلیل مسائل و پیشنهاد راهحلهای مؤثر را به شکل قابلتوجهی کاهش داد. این کاهش زمان میتواند منجر به بهبود ارتباطات و روند حل مسائل شود و در نهایت به کاهش هزینههای مرتبط با مخاصمات منجر شود. این سیستمها با توانایی شناسایی و تحلیل دقیق عوامل مختلف مخاصمات، میتوانند راهحلهایی را ارائه دهند که با اصول بنیادین مخاصماتی سازگاری داشته باشند و بهبودیهای قابلتوجهی در روند حل مسائل ایجاد کنند (Lepri, 2023).
بهطورکلی، استفاده از سیستمهای هوش مصنوعی در اجرای اصول بنیادین حقوق بینالملل مخاصمات مسلحانه میتواند به بهبود کارایی، کاهش تلفات غیرنظامی، افزایش شفافیت، و تسریع فرایندهای تصمیمگیری منجر شود. این تحولات مثبت نهتنها به بهبود مدیریت مخاصمات کمک میکنند، بلکه به تقویت احترام به قوانین بینالمللی و حقوق انسانی نیز منجر میشوند.
4- چالشهای هوش مصنوعی در مخاصمات
هوش مصنوعی مانند سایر فناوریهای نوظهور، یک شمشیر دو لبه است و با کاربرد نظامی گستردهتر هوش مصنوعی مسائل جدیدی پدیدآمده است که نگرانیها را در سراسر جهان گسترش داده است. در سطوح سیاسی و استراتژیک یکی از چالشهای استفاده از هوش مصنوعی این است که ممکن است از این هوش برای بیثبات کردن حریف با تولید و انتشار مقادیر زیادی اطلاعات جعلی استفاده شود. فناوریهای جدید بسیار سریعتر از سیاستهای دولت تکامل مییابند و اغلب چارچوبهای حقوقی و سیاسی موجود را تضعیف میکنند (Cath, 2018: 376).
چالشهای هوش مصنوعی در مخاصمات بهعنوان یکی از موضوعات حیاتی شناخته میشوند و برای استفاده مؤثر و اثربخش از سیستمهای هوش مصنوعی در مخاصمات، باید بهطورجدی مدنظر قرار گیرند. در ادامه به برخی از چالشهای موجود اشاره میگردد.
1-4 دقت و قابلیت اطمینان
یکی از بزرگترین چالشها در استفاده از هوش مصنوعی در نظامیگری، دقت و قابلیت اطمینان سیستمهاست. سیستمهای هوش مصنوعی ممکن است در شرایط خاص خطا کنند و این خطاها میتوانند عواقب جدی به دنبال داشته باشند، بهخصوص زمانی که تصمیمات خودکار بر اساس ورودیهای نادرست اتخاذ شوند. مطالعات نشان دادهاند که نیاز به شفافیت در الگوریتمها و دادههای آموزشی برای افزایش اعتماد به این سیستمها اساسی است (Russell, 2016).
2-4 شفافیت و قابلتوضیح بودن تصمیمات
در محیطهای نظامی، استفاده از سیستمهای هوش مصنوعی برای اتخاذ تصمیمات مهم و حساس میتواند به یکی از موارد بحرانی تبدیل شود. یکی از چالشهای اساسی در این زمینه، شفافیت و قابلیت توضیح نتایج تولید شده توسط این سیستمها است. در یک سناریو جنگی، اهمیت این موضوع دوچندان میشود. فرماندهان و مقامات نظامی نیاز دارند که قادر باشند تصمیماتی که توسط سیستمهای هوش مصنوعی گرفته میشود را درک کرده و به دیگران توضیح دهند. عدم توانایی در توضیح میتواند به افزایش عدم اعتماد و پذیرش تصمیمات اتخاذ شده توسط این سیستمها منجر شود.
موضوع شفافیت و توضیحپذیری در سیستمهای هوش مصنوعی در مواقع بحرانی چهارچوب اساسی برای اعتماد به این سیستمها فراهم میکند. بدون قابلیت توضیح، افراد ممکن است نتوانند دلایل و اساسهای تصمیماتی که توسط این سیستمها گرفته میشود را درک کنند. این مسئله میتواند به تضعیف اعتماد عمومی به عملکرد این سیستمها و در نتیجه پذیرش آنها در محیطهای حساس و اهمیت داشته باشد (Lipton, 2018: 31-57).
در نهایت، درک عمیق و توانایی توضیح تصمیمات گرفته شده توسط سیستمهای هوش مصنوعی میتواند به تسهیل فرایند اعتماد و پذیرش این سیستمها در محیطهای نظامی کمک کند. این امر میتواند از وقوع خطاها و ابهامات جلوگیری کرده و بهبود کارایی و اثربخشی این سیستمها در شرایط حساس مانند جنگ، تضمین شود.
3-4 حفظ حریم خصوصی و امنیت دادهها
استفاده از هوش مصنوعی در مخاصمات همچنین مسائل جدی دررابطهبا حریم خصوصی و امنیت دادهها به همراه دارد. جمعآوری و نگهداری دادههای مربوط به افراد و فعالیتها میتواند به نقض حریم خصوصی منجر شود و همچنین احتمال سو استفاده از این دادهها وجود دارد. سیستمهای هوش مصنوعی برای عملکرد بهتر نیاز به دسترسی به دادههای حساس و بزرگ دارند. اما نگهداری و مدیریت این حجم عظیم از دادهها با مسائل امنیتی همراه است. حفظ امنیت دادهها از دسترسی غیرمجاز، حفاظت در برابر حملات سایبری و ارائه گزینههای مناسب برای رمزگذاری و انتقال اطلاعات، از جمله چالشهایی هستند که باید در ارتباط با استفاده از سیستمهای هوش مصنوعی در مخاصمات مدنظر قرار گیرند (Culnane, 2017: 1712).
بنابراین، ضمانت حفظ حریم خصوصی و اطمینان از رعایت قوانین و مقررات مربوط به حریم خصوصی افراد و سازمانها، یکی از مسائل مهم است که در استفاده از سیستمهای هوش مصنوعی باید مدنظر قرار گیرد.
4-4 تعامل انسانی و هوش مصنوعی
این چالش از جهات مختلفی ایجاد مشکل میکند که از جمله میتوان به ناهماهنگیها در تفسیر دادهها، عدم درک عواطف انسانی توسط سیستمهای هوش مصنوعی، و انطباق نامناسب بین تصمیمگیری انسانی و تصمیمگیری مبتنی بر الگوریتمهای هوش مصنوعی اشاره کرد. مخاصماتی، مربوط به نیاز انسانی به درک و تجربه احساسات و عواطف است که معمولاً سیستمهای هوش مصنوعی نمیتوانند بهصورت کامل درک کنند. این امر میتواند منجر به تصمیمهای نامناسب یا ناپایدار شود. همچنین، تفسیر دادههای پیچیده و متنوع مربوط به مخاصمات انسانی نیز میتواند به چالش برخوردار باشد، زیرا سیستمهای هوش مصنوعی ممکن است بهدرستی قادر به درک و تفسیر مفاهیم مبهم و غیرخطی مرتبط با مخاصمات نباشند. برای حل این چالش، نیاز به توسعه سیستمهای هوش مصنوعی است که قادر باشند با پیچیدگیهای مرتبط با تعامل انسانی در مخاصمات مرتبط شوند و از دادههای متنوع و پیچیده بهدرستی استفاده کنند. همچنین، لازم است که روشهایی برای انطباق بهینه بین تصمیمگیری انسانی و تصمیمگیری مبتنی بر هوش مصنوعی توسعه داده شود تا به نتایج بهتری در حل مسائل مخاصماتی دست یابیم (Radanliev, 2018: 14-22)
5-4 مسئولیت استفاده از هوش مصنوعی در مخاصمات
این چالش مرتبط با نبود شفافیت و پویایی در فرایند تصمیمگیری استفاده از سیستمهای هوش مصنوعی است. زیرا این سیستمها معمولاً به طور خودکار و بر اساس الگوریتمهای پیچیده عمل میکنند که ممکن است برای افراد غیرقابلفهم باشد. در نتیجه، تعیین اینکه چه کسی در مواجهه با خطاها، نقصانها یا تصمیمات ناخواسته این سیستمها مسئول است، یک چالش مهم است. همچنین، پاسخگویی به اینکه چگونه تصمیماتی که توسط یک سیستم هوش مصنوعی اتخاذ میشوند، قابلتوجیه و توجیه شوند نیز یک مسئله حیاتی است که در اینجا باید مدنظر قرار گیرد (Jobin & Ienca , 2019: 389-399)
برای حل این چالش، میتوان از رویکردهای متعددی استفاده کرد، از جمله افزایش شفافیت و توضیحپذیری الگوریتمها و فرایندهای استفاده شده در سیستمهای هوش مصنوعی، ایجاد مکانیسمهایی برای ثبت و ارزیابی تصمیمات این سیستمها و نیز تعیین مسئولیتهای واضح برای مدیریت و نظارت بر این سیستمها. علاوه بر این، ایجاد استانداردها و قوانینی که مسئولیت و پاسخگویی را در استفاده از سیستمهای هوش مصنوعی مشخص کنند، میتواند به مدیریت بهتر این چالش کمک کند. از طرفی؛ برای تسهیل در حل مخاصمات و مدیریت آنها با استفاده از سیستمهای هوش مصنوعی، راهکارهای متعددی وجود دارد که میتوانند به بهبود تصمیمگیری، پیشبینی، و مدیریت مخاصمات کمک کنند (Shafritz & et al , 2022)
اولین راهکار؛ استفاده از الگوریتمهای یادگیری ماشینی و تحلیل دادهها به شیوهای هوشمند است که میتواند به شناخت بهتر از الگوهای موجود در مخاصمات و روندهای آنها کمک کند. این تحلیلها میتوانند به تصمیمگیران در فرایند تصمیمگیری و ارائه راهحلهای مناسب کمک کنند. دومین راهکار؛ با استفاده از سیستمهای هوش مصنوعی میتوان به پیشبینی روند و تحولات آینده مخاصمات پرداخت. این اطلاعات پیشبینی شده میتواند به تصمیمگیران در انتخاب بهترین راهحل برای مسائل مخاصماتی کمک کند. سومین راهکار؛ ایجاد یک فرایند مشارکتی بین سیستمهای هوش مصنوعی و تصمیمگیران انسانی است که؛ میتواند به بهبود کیفیت تصمیمگیری و حل مسائل مخاصماتی کمک کند. انسانها میتوانند از تحلیلهای سیستمهای هوش مصنوعی استفاده کنند تا تصمیمات نهایی را بگیرند و به ارائه راهحلهای بهتری برای مسائل مخاصماتی بپردازند
نتیجهگیری
در حال حاضر، قوانین بینالمللی حقوق بشر بهخصوص در زمینه هوش مصنوعی فاقد مقررات صریح هستند. این نواقص، نیاز فوری به یک چارچوب جدید را برجسته میکند که باید محدودیتهای مشخصی برای استفاده از تکنولوژیهای پیشرفته، مانند سلاحهای هوش مصنوعی، تعیین کند. این محدودیتها باید شامل اصولی نظیر تفکیک میان اهداف نظامی و غیرنظامی، جلوگیری از ایجاد درد و رنج غیرضروری و تضمین رعایت حقوق بشر باشد؛ بنابراین، جامعه جهانی در طول تاریخ به مذاکره و چارهاندیشی در برابر رفتارهای وحشیانه در جنگ پرداخته است و اصول و قواعد بشردوستانه نتیجه این تلاشها هستند.
با پیشرفت تکنولوژیهای جدید در زمینه هوش مصنوعی، دغدغه اصلی کارشناسان و حقوقدانان این است که آیا استفاده از این فناوریها در مخاصمات مسلحانه میتواند اصول بنیادین حقوق بشردوستانه، مانند تناسب و تفکیک، را رعایت کند یا خیر. استفاده از سیستمهای هوش مصنوعی بهعنوان ابزاری قدرتمند در حل مخاصمات و رعایت این اصول از اهمیت بالایی برخوردار است. این سیستمها باقابلیت تجزیهوتحلیل دادههای حجیم و پیچیده، میتوانند الگوهای پنهان در مسائل مخاصماتی را شناسایی کنند و راهحلهای مناسبی ارائه دهند. در این راستا، اولویت باید به توسعه الگوریتمهایی داده شود که توانایی پیشبینی تحولات آینده را دارند. همچنین، توجه به راهحلهای خلاقانهای که میتوانند به بهبود فرایندهای حل مخاصمات کمک کنند، از اهمیت ویژهای برخوردار است. این پیشبینیها بر اساس الگوریتمهایی انجام میشود که با تحلیل دادههای گذشته و شناخت الگوهای زمانی، قادر به تشخیص مسیرهای مختلف تحولات آینده مخاصماتی هستند. استفاده بهینه از سیستمهای هوش مصنوعی میتواند به طور قابلتوجهی در بهبود فرایندهای حل مخاصمات و رعایت اصول بنیادین مؤثر باشد. این سیستمها میتوانند به طور خودکار و بدون نیاز به مداخله انسانی، بهبودهای قابلتوجهی در مدتزمان و هزینههای مرتبط با حل مخاصمات ایجاد کنند. در نهایت، برای بهرهبرداری کامل از پتانسیلهای این فناوری، ضروری است که به توسعه و بهبود مداوم سیستمها توجه شود. این شامل آموزش مداوم، بهروزرسانی الگوریتمها و ایجاد استانداردها و قوانینی است که مسئولیت و پاسخگویی را در استفاده از آنها مشخص کند. با این اقدامات، میتوانیم به بهبود روندهای حل مخاصمات و کاهش آسیبهای ناشی از جنگ کمک کنیم. بااینحال، برای دستیابی به مزایای بالقوه هوش مصنوعی در مخاصمات مسلحانه، ضروری است که به بهبود عملکرد این سیستمها در اجرای اصول بنیادین حقوق بشردوستانه توجه ویژهای داشته باشیم. همچنین، قوانین مربوط به هوش مصنوعی باید بهگونهای طراحی شوند که از انطباق با استانداردهای حقوقی بینالمللی اطمینان حاصل کنند. این اقدامات نهتنها به حفظ حقوق بشر و کاهش آسیبهای غیرنظامی کمک میکند، بلکه میتواند اعتبار و مشروعیت جامعه بینالمللی را در مواجهه با چالشهای جدید جنگهای مدرن تقویت کند.
از طرفی، کنوانسیون لاهه ۱۹۰۷ که به تسلیحات در درگیریهای مسلحانه مربوط میشود، در مواجهه با چالشهای گسترده و پیچیده سلاحهای هوش مصنوعی کمی قدیمی به نظر میرسد؛ بنابراین، نیاز فوری به تدوین مقررات جدید و مشخصی احساس میشود که به طور خاص به ویژگیها و خطرات سلاحهای هوش مصنوعی بپردازد. این مقررات باید شامل اصولی همچون شفافیت در استفاده، مسئولیتپذیری در طراحی و عملکرد، و معیاری برای ارزیابی تأثیرات انسانی بر اثر استفاده از این فناوریها باشد. با این رویکرد، میتوان از خطرات ناشی از سلاحهای خودمختار جلوگیری کرده و امنیت انسانی را در دوران جنگهای مدرن تضمین کرد. در نهایت؛ تعیین اینکه چه کسی کنترل سیستمهای هوش مصنوعی را بر عهده دارد، موضوعی پیچیده و حیاتی است، و برای این منظور، نیاز به مقرراتی داریم که یک ناظر مسئول را برای هر سلاح هوش مصنوعی تعیین کند. این اقدام نهتنها به اطمینان از پاسخگویی در مواقع نقض قوانین بشردوستانه بینالمللی کمک میکند، بلکه به حفظ استانداردهای اخلاقی و ایمنی انسانی در دوران جنگهای مدرن نیز حیاتی است. در نتیجه، ایجاد چنین مقرراتی میتواند به کاهش خطرات ناشی از استفاده نادرست از سلاحهای خودمختار و افزایش اعتبار جامعه جهانی در رعایت حقوق بشر منجر شود.
منابع
1. ضیایی بیگدلی، محمدرضا. (1401)، حقوق بین الملل بشر دوستانه، نوبت ششم، تهران، انتشارات گنج دانش.
2. گری دی. سولیس. (1398)، حقوق مخاصمات مسلحانه: حقوق بشردوستانه بینالمللی در جنگ. ترجمه عباسعلی عظیمی شوشتری و مهدی خاقانی اصفهانی، تهران: انتشارات زمزم هدایت.
3. پیریایی، شیرین و رنجبریان، امیرحسین و مرادی منوچهر. (1402). انسان، جنگ، الگوریتم در جستجوی پاسخهای حقوق بینالملل بشردوستانه. نوبت اول، تهران. انتشارات میزان.
4. ضیایی بیگدلی، محمدرضا. (1382).«حقوق بشر، حقوق بشردوستانه و حقوق بینالملل بشر، مجموعهمقالات». تهران: کمیته ملی حقوق بشردوستانه، صفحه 82 .
5. قرباننیا، ناصر و اخگری بناب، نادر. (1390). «عدم مشروعیت کاربرد سلاح هستهای در پرتو اصل تفکیک (با رویکرد اسلامی)»، حقوق اسلامی، سال هشتم، شماره 28، صفحه 77.
6. شریفی طراز کوهی، حسین و صیاد نژاد، محمدحسین، (1399). «اِعمال اصول بنیادین حقوق بینالملل بشردوستانه بر تسلیحات کاملاً خودکار بهعنوان ابزار نوین جنگی»، فصلنامه مطالعات حقوق عمومی دانشگاه تهران، دوره 50، شماره 2،صفحه 551-575.
7. انصاری مهیاری، علیرضا، محمودی، هادی، (1401). «بررسی راهکارهای تقلیل حملات سایبری از منظر حقوق بینالملل بشردوستانه»، فصلنامه مطالعات حقوق فضای مجازی، سال اول، شماره سوم،صفحه 19-36.
8. نداف، ناصر، «سامانههای تسلیحاتی خود آیین و چالشهای موجود برای قاعدهمندسازی آنها»، وبسایت انجمن ایرانی مطالعات سازمان ملل متحد، (1400(
9. Shafritz, Jay M., et al. (2022). Introducing Public Administration. Routledge.
10. Nath, Vishnu; Levinson, Stephen E. (2014). Autonomous Military Robotics. Springer International Publishing.
11. Beard, Jack M. (2018). "The Principle of Proportionality in an Era of High Technology." Forthcoming, Oxford University Press, Lieber Institute for Law and Land Warfare Book Series - Complex Battlespaces: The Law of Armed Conflict and the Dynamics of Modern Warfare, edited by Christopher M. Ford and Winston S. Williams.
12. Steinholt, Jørgen Agil T. (2022). "Autonomous Weapons Systems: The ICRC's Recommendations and Its Implications for International Humanitarian Law."
13. Devey, Cher SH. (2019). "A Triage Playbook: Privacy Harm and Data Incident Response in the UK."
14. Henckaerts, Jean-Marie; Alvermann, Carolin. (2005). Customary International Humanitarian Law. Cambridge University Press.
15. Henckaerts, Jean-Marie; Alvermann, Carolin. (2005). Customary International Humanitarian Law. Cambridge University Press.
16. Russell, Stuart J.; Norvig, Peter. (2016). Artificial Intelligence: A Modern Approach.
17. Shukla, Amit K.; Terziyan, Vagan; Tiihonen, Timo. (2024). "AI as a User of AI: Towards Responsible Autonomy." Heliyon, 10.11.
18. Arkin, Ronald Craig; Ulam, Patrick; Wagner, Alan R. (2011). "Moral decision making in autonomous systems: Enforcement, moral emotions, dignity, trust, and deception." Proceedings of the IEEE, 571-589.
19. Schindler, Dietrich; Toman, Jiri. (2004). "Declaration Renouncing the Use, In Time of War, Of Explosive Projectiles under 400 Grammes Weight." The Laws of Armed Conflicts. Brill Nijhoff, 91-93.
20. Culnane, Chris; Rubinstein, Benjamin IP; Teague, Vanessa. (2017). "Health Data in an Open World." arXiv preprint arXiv:1712.05627.
21. Radanliev, Petar, et al. (2018). "Future Developments in Cyber Risk Assessment for the Internet of Things." Computers in Industry, 102, 14-22.
22. Jobin, Anna; Ienca, Marcello; Vayena, Effy. (2019). "The Global Landscape of AI Ethics Guidelines." Nature Machine Intelligence, 1.9, 389-399.
23. Floridi, Luciano; Cowls, Josh. (2022). "A Unified Framework of Five Principles for AI in Society." Machine Learning and the City: Applications in Architecture and Urban Design, 535-545.
24. Konidena, Bhargav Kumar; Malaiyappan, Jesu Narkarunai Arasu; Tadimarri, Anish. (2024). "Ethical Considerations in the Development and Deployment of AI Systems." European Journal of Technology, 8.2, 41-53.
25. Trusilo, Daniel; Danks, David. (2023). "Artificial Intelligence and Humanitarian Obligations." Ethics and Information Technology, 25.1, 12.
26. Fossaceca, John M.; Young, Stuart H. (2018). "Artificial Intelligence and Machine Learning for Future Army Applications." In Ground/Air Multisensor Interoperability, Integration, and Networking for Persistent ISR IX, SPIE, 8-25.
27. Lipton, Zachary C. (2018). "The Mythos of Model Interpretability: In Machine Learning, the Concept of Interpretability is Both Important and Slippery." Queue, 16.3, 31-57.
28. Kertysova, Katarina. (2018). "Artificial Intelligence and Disinformation: How AI Changes the Way Disinformation is Produced, Disseminated, and Can Be Countered." Security and Human Rights, 29.1-4, 55-81.
29. Buehler, Antje, et al. (2019). "Challenges for Research into Military Investigations." Psychiatry, Psychology and Law, 26.1, 50-64.
30. Khorram-Manesh, Amir, et al. (2021). "Estimating the Number of Civilian Casualties in Modern Armed Conflicts – A Systematic Review." Frontiers in Public Health, 9, 261.
31. Pashkov, Vitalii M.; Mykhailichenko, Tetiana O.; Zabukha, Yuliia Yu. (2024). "Medical and Pharmaceutical Activities in Occupied Territories: Legal Assessment and Ukraine's Experience." Polski Merkuriusz Lekarski: Organ Polskiego Towarzystwa Lekarskiego, 52.4, 445-452.
32. Mohamed, Amira; Homeida, Anmar. (2024). "Hunger in the Shadow of Conflict: Analyzing Malnutrition and Humanitarian Challenges in Sudan." Conflict and Health, 18.1, 50.
33. Goniewicz, Krzysztof; Goniewicz, Mariusz; Pawłowski, Witold. (2016). "Protection of Medical Personnel in Contemporary Armed Conflicts." Wiadomości Lekarskie (Warsaw, Poland: 1960), 69.2 Pt 2, 280-284.
34. Grace, Rob, et al. (2023). "Moving Humanitarian-Military Relations Forward: A New Typology." Journal of International Humanitarian Action, 8.1, 2.
35. Gaggioli, Gloria. (2018). "International Humanitarian Law: The Legal Framework for Humanitarian Forensic Action." Forensic Science International, 184-194.
36. Bode, Ingvild. (2018). "Reflective Practices at the Security Council: Children and Armed Conflict and the Three United Nations." European Journal of International Relations, 24.2, 293-318.
37. Metcalf, Mark. (2022). "The PRC Considers Military AI Ethics: Can Autonomy Be Trusted?" Frontiers in Big Data, 5, 991392.
38. Mao, Yishu; Shi-Kupfer, Kristin. (2023). "Online Public Discourse on Artificial Intelligence and Ethics in China: Context, Content, and Implications." AI & Society, 1-17.
39. Mirzekhanov, V. S.; Trunov, F. O. (2022). "Features of Armed Conflict Resolution in Asia and Africa from the Late 2010s Through the Early 2020s." Herald of the Russian Academy of Sciences, 92.6, 713-721.
40. Schraagen, Jan Maarten. (2023). "Responsible Use of AI in Military Systems: Prospects and Challenges." Ergonomics, 66.11, 1719-1729.
41. Lepri, Bruno; Oliver, Nuria; Pentland, Alex. (2021). "Ethical Machines: The Human-Centric Use of Artificial Intelligence." iScience, 24.3.
42. Cath, Corinne. (2018). "Governing Artificial Intelligence: Ethical, Legal and Technical Opportunities and Challenges." Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376.
