تأملی بر مسئولیت حقوقی و کیفری رباتها با نگرشی بر نظام بردهداری در حقوق روم
محورهای موضوعی : تحقیقات حقوق خصوصی و کیفریمحدثه قوامی پور 1 , امیررضا محمودی 2
1 - دانشجوی دکتری حقوق کیفری و جرم شناسی، واحد لاهیجان، دانشگاه آزاد اسلامی، لاهیجان، ایران
2 - استادیار گروه حقوق، واحد لاهیجان، دانشگاه آزاد اسلامی، لاهیجان، ایران
کلید واژه: هوش مصنوعی, ربات, حقوق روم, بردگی, مسئولیت مدنی, مسئولیت کیفری.,
چکیده مقاله :
نگرش حقوق روم نسبت به برده این است که برده هیچ حقی ندارد. در این نظام حقوقی، بردهها به عنوان اشیا در نظر گرفته میشدند که میتوانستند در مالکیت انسان دیگری باشند. اما این واقعیت که آنها نیز انسان بودند، بردهها را از دیگر اشیای تحت مالکیت متمایز میکرد. هنگامی که وضعیت بردهها در حقوق رومی بررسی شود، خواهیم دید وضعیت رباتها که توافق عمومی وجود دارد که به زودی جزئی از زندگی ما انسانها خواهند شد، شباهت هایی وجود دارد. برده را میتوان مالکیتی خودفکر، تصمیمگیرنده و عاطفی تعریف کرد. همین موضوع در مورد رباتها نیز صدق میکند. بنابراین رباتها را میتوان خویشاوندان تکنولوژیکی بردهها در نظر گرفت. تمام این اطلاعات ما را به این نتیجه میرساند که اگر قرار باشد مقررات قانونی درباره رباتها وجود داشته باشد، میتوان به راحتی قواعد را از حقوق رومی اقتباس کرد. در این مقاله، مقایسهای بین رباتها و بردهها با ارائه اطلاعات درباره آنها انجام شده است. با کمک این مقایسه، مشخص خواهد شد که چرا وضعیت قانونی آنها شبیه به هم میباشد. سپس، در مورد چگونگی تنظیم مقررات مرتبط با مسئولیت مدنی و کیفری رباتها در قالب نظری و به صورت توصیفی تحلیلی مباحثی مورد مطالعه قرار گرفته است.
تأملی بر مسئولیت حقوقی و کیفری رباتها با نگرشی بر نظام بردهداری در حقوق روم | ||
|
| محدثه قوامی پورسرشکه1 امیررضا محمودی 2 |
تاریخ دریافت مقاله: 22/01/1403 تاریخ پذیرش نهایی: 05/03/1403
چکیده
نگرش حقوق روم نسبت به برده این است که برده هیچ حقی ندارد. در این نظام حقوقی، بردهها به عنوان اشیا در نظر گرفته میشدند که میتوانستند در مالکیت انسان دیگری باشند. اما این واقعیت که آنها نیز انسان بودند، بردهها را از دیگر اشیای تحت مالکیت متمایز میکرد. هنگامی که وضعیت بردهها در حقوق رومی بررسی شود، خواهیم دید وضعیت رباتها که توافق عمومی وجود دارد که به زودی جزئی از زندگی ما انسانها خواهند شد، شباهت هایی وجود دارد. برده را میتوان مالکیتی خودفکر، تصمیمگیرنده و عاطفی تعریف کرد. همین موضوع در مورد رباتها نیز صدق میکند. بنابراین رباتها را میتوان خویشاوندان تکنولوژیکی بردهها در نظر گرفت. تمام این اطلاعات ما را به این نتیجه میرساند که اگر قرار باشد مقررات قانونی درباره رباتها وجود داشته باشد، میتوان به راحتی قواعد را از حقوق رومی اقتباس کرد. در این مقاله، مقایسهای بین رباتها و بردهها با ارائه اطلاعات درباره آنها انجام شده است. با کمک این مقایسه، مشخص خواهد شد که چرا وضعیت قانونی آنها شبیه به هم میباشد. سپس، در مورد چگونگی تنظیم مقررات مرتبط با مسئولیت مدنی و کیفری رباتها در قالب نظری و به صورت توصیفی تحلیلی مباحثی مورد مطالعه قرار گرفته است.
کلید واژهها
هوش مصنوعی، ربات، حقوق روم، بردگی، مسئولیت مدنی، مسئولیت کیفری.
مقدمه
رشد روزافزون فناوریهای نوین از جمله هوش مصنوعی و ربات ها، جهان امروز را با چالشهای حقوقی جدیدی روبرو ساخته است. ورود رباتها و ماشینهای هوشمند به عرصههای مختلف زندگی بشر، از یک سو موجب تسهیل و تسریع بسیاری از امور گردیده، اما از سوی دیگر، پرسشهای حقوقی و اخلاقی بی پاسخی را نیز پدید آورده است. یکی از مهمترین موضوعاتی که در این خصوص مطرح میشود، بحث مسئولیت حقوقی و کیفری این موجودات مصنوعی هوشمند در مواردی است که موجبات خسارت یا ارتکاب جرم را فراهم آورند.
با نگاهی به حقوق رُم باستان، میتوان تشابهات جالب توجهی میان وضعیت رباتها و بردهها یافت. بردهها در آن حقوق، علیرغم اینکه انسان بودند، تنها در مقام یک شیء یا مال به شمار میآمدند که در مالکیت افراد دیگر قرار داشتند. اما آنچه بردهها را از سایر اشیاء متمایز میساخت، توانایی تفکر، تصمیمگیری و ابراز عواطف بود که در نهایت سبب میشد تا بخشی از حقوق و تکالیف محدود برای آنها در نظر گرفته شود. به نظر میرسد که رباتهای نوین دارای هوش مصنوعی نیز چنین ویژگیهایی را دارا باشند
از نظر آسیموف، مشکلات حقوقی رباتها میتواند با سه قانون ساده حل شود:
- رباتها نمیتوانند به انسانها آسیب برسانند یا با بیعملی اجازه دهند به آنها آسیبی برسد،
- رباتها مجبورند از دستورات صادر شده توسط انسانها اطاعت کنند، مشروط بر اینکه با قانون اول تعارض نداشته باشد.
- رباتها باید وجود خود را حفظ کنند، مشروط بر اینکه با قانون اول و دوم تعارض نداشته باشد. (Asimov 1985, p. 231)
اگرچه آسیموف تنها خالق ایده ربات نبود، اما به دلیل طرح بسیاری از مفاهیم مربوط به رباتها و ایده اینکه رباتها باید از قوانینی پیروی کنند، وی مهمترین نویسنده در زیرشاخه ادبیات علمی-تخیلی است که میتوانیم آن را "ادبیات ربات" بنامیم. (Richards and Smart 2012, 3-4) شاید رباتها موجودات سادهای باشند، همانطور که آسیموف بیان کرده است، اما پیشبینی میشود حقوق احتمالاً در آینده تمایل به پیچیدگی بیشتر از قانون پیشنهادی آسیموف را خواهد داشت. بنابراین، بدون شک لازم خواهد بود که قوانین موجود برای رباتها و سایر هوشهای مصنوعی تغییر کنند و یا قواعد و مفاهیم جدیدی ایجاد شوند. اگرچه میتوان گفت که حقوق مدرن تمایل به پیروی از تحولات دارد.
(Say 2019, p.15)
با توجه به اهمیت و ضرورت تنظیم مقررات حقوقی برای رباتها و هوش مصنوعی در آینده نزدیک، این پژوهش درصدد است تا به سوالات و فرضیههای زیر پاسخ دهد:آیا قواعد و مقررات حقوق روم در خصوص برده داری میتواند الگویی برای تنظیم وضعیت حقوقی و مسئولیتهای مدنی و کیفری رباتها باشد؟ فرضیه این است که همانند بردههای حقوق روم که خودفکر، تصمیم گیرنده و دارای عواطف بودند اما در مالکیت انسان قرار داشتند، میتوان رباتها را نیز چنین موجوداتی در نظر گرفت. بنابراین ممکن است بتوان با الگوبرداری از رویکرد حقوق روم، رباتها را فاقد اهلیت حقوقی اما دارای اهلیت انجام معاملات حقوقی محدود در نظر گرفت. همچنین با تاسی از برخورد انسانی حقوق روم با برده ها، میتوان مسائل اخلاقی را در قوانین مربوط به رباتها لحاظ نمود. در این پژوهش تلاش شده است با بررسی ویژگیها و تشابهات رباتها و بردهها در حقوق روم، راهکارهایی برای مسائل حقوقی پیرامون رباتها از جمله مسئولیت مدنی و کیفری آنها ارائه گردد
موضوع مقاله ما، یکی از حوزههای مهمی است که این پیشرفت سریع بر آن تأثیر گذاشته، یعنی اینکه چگونه هوش مصنوعی و ماشینهای دارای هوش مصنوعی (رباتها) باید در یک نظام حقوقی جای گیرند. در این نقطه، ابتدا سعی خواهیم کرد تعریف حقوقی از مفاهیم ربات و هوش مصنوعی را ارائه دهیم و در مورد اینکه حقوق ربات اساساً چگونه باید باشد از نظر مسئولیت مدنی و کیفری توضیح دهیم. هدف ما در این توضیحات، تشریح کامل مفاهیم نیست، بلکه با کمک منابع خارجی در تلاش جهت ارائه ایدههایی در زمینه مشکلات و راهحلهای احتمالی در این حوزه به خود و دیگر محققان جدید، و گشودن دری به سوی مطالعات بیشتر است.
1. ربات و هوش مصنوعی
هوش مصنوعی که زمانی تنها در آثار علمی-تخیلی وجود داشت، امروزه دیگر فقط یک نوزاد تازه متولد شده نیست. در این دوران یاد میگیرند که راه بروند، صحبت کنند، درک کنند و بیان کنند. آنها شروع به ورود به زندگی روزمره ما و تدریجاً جزئی از زندگی ما شدند. شاید هنوز از آن دنیاهای خیالی در فیلمهای هالیوودی یا آثار علمی-تخیلی دور باشیم، اما توضیحات دانشمندان نشان میدهد که ماشینهای منطقی که میاندیشند، تصمیم میگیرند، میتوانند معاملات حقوقی انجام دهند و مسئولیت بپذیرند، چندان از ما دور نیستند.
قبل از بحث در مورد مسئولیت حقوقی و کیفری ربات و هوش مصنوعی، مناسب خواهد بود که ابتدا توضیح دهیم که آنها چه هستند و چه تفاوتهایی با یکدیگر دارند. پس از این توضیحات، بر این باوریم که باید دید آیا میتوان راهحلهایی یافت که هر دو را در بر بگیرد یا خیر. قبل از تشریح ربات و هوش مصنوعی، واضح است که باید توضیح دهیم یک موجود هوشمند چیست. میتوان پیشنهاد کرد که پنج شاخص برای اینکه یک موجود بتواند هوشمند تلقی شود، وجود دارد. (Hallevy 2010, 175) این شاخصها عبارتند از: توانایی برقراری ارتباط، داشتن دانش درونی، داشتن دانش بیرونی، توانایی حرکت هدفمند و خلاقیت. (Dülger 2017, 7) پس از تعریف موجود هوشمند، تعریف موجود دارای هوش مصنوعی نسبتاً آسانتر میشود. قبل از ارائه این تعریف، میبینیم که اصطلاح "هوش مصنوعی" برای اولین بار در متن فراخوان یک کارگاه آکادمیک ده نفره که در تابستان 1956 در ایالت نیوهمپشایر3 ایالات متحده آمریکا برگزار شد، توسط یک گروه از دانشمندان به رهبری جان مککارتی4 استفاده شد. (Say 2019, 85)
موجودات هوشمندی که به صورت خودکار و بدون نیاز به هدایت دیگری فعالیت میکنند، غیرآلی هستند و تولید آنها توسط انسان یا هوش مصنوعی دیگری تأمین میشود، هوش مصنوعی نامیده میشوند. عبارت "غیرآلی" در این تعریف مربوط به محدودیتهای فناوری امروز است. در آیندهای که قابل پیشبینی نیست، اگر موجودات هوشمندی با استفاده از ماده خاکستری یا هر ماده آلی دیگری به جای میکروپروسسورها5 تولید شوند، واضح است که باید تعریف خود را دوباره بازنگری کنیم. اما با محدودیتهای فناوری امروز و آینده قابل پیشبینی، معتقدیم که ارائه این تعریف مناسب خواهد بود. نظر دیگری وجود دارد که هوش مصنوعی را نه یک ماشین، بلکه یک رشته علمی در نظر میگیرد و آن را اینگونه تعریف میکند: "رشته علمی که بررسی میکند چگونه میتوانیم به سیستمهای مصنوعی، هر فعالیت شناختی را که سیستمهای طبیعی انجام میدهند، با سطوح عملکرد حتی بالاتر انجام دهیمSay) .(2019, 83
در عصر ما، امکان تقسیم هوش مصنوعی به دو زیرمجموعه هوش مصنوعی محدود (ضعیف) و هوش مصنوعی گسترده (قوی) وجود دارد. هوش مصنوعی ضعیف متشکل از سختافزار و نرمافزارهایی است که براساس کدهای نوشته شده توسط برنامهنویسان آن طراحی شدهاند و از خودآگاهی برخوردار نیستند، در حالی که هوش مصنوعی قوی که وعده آینده است، ماشینهای متفکری را توصیف میکند که میتوانند تمام فعالیتهای ذهنی را که انسان قادر به انجام آن است، انجام دهند.Goodman 2016,) (455 & 464 شاید در آینده دور، ماشینهایی با هوش مصنوعی قوی بتوانند با سرعت و گستره بیشتری نسبت به آنچه که بیوتکنولوژی امروز به بشریت دست یافته یا میتواند دست یابد، برنامههای خود را تغییر دهند (Kurzweil 2018, 49) هوش مصنوعی ضعیف در زمان حال بر زندگی ما تأثیرگذار است و ارزیابی اینکه چگونه باید در نظامهای حقوقی جای گیرد، یک ضرورت برای همگام ماندن حقوق با تحولات فناوری محسوب میشود (Goodman 2016, 464) .
از طرف دیگر، احتمالات تأثیرگذاری هوش مصنوعی قوی بر حقوق آینده، بحثهای فلسفی هیجانانگیزی را در مورد بسیاری از موضوعات کنونی به راه انداخته است. زیرا در کوتاه مدت، تأثیر هوش مصنوعی به کنترل کننده آن بستگی دارد، در حالی که در بلندمدت، به این بستگی خواهد داشت که آیا میتوان آن را کنترل کرد یا خیر، (Goodman 2016, 465) بنابراین در هر دو حالت، به مقررات
حقوقی نیاز خواهد بود.
پس از تعریف موجود هوشمند و هوش مصنوعی، تشریح اینکه ربات چیست تا حدودی آسانتر میشود. به عقیده ما، قبل از ارائه تعریف ربات، بررسی ریشهشناسی این واژه مفید خواهد بود. واژه "ربات" توسط نویسنده چک، کارل چاپک6 به کار برده شد. در این نقطه نیز مناسب است که مشخص کنیم واژه "ربات" قبل از "هوش مصنوعی" استفاده شده است. (Goodman 2016, 464)
ربات از ابتدا برای توصیف یک نیروی کار مصنوعی و بیجان در نظر گرفته شده بود. امروزه میتوانیم ربات را یک سیستم فیزیکی متحرک و برنامهپذیر که میتواند به صورت خودکار وظایف را انجام دهد، تعریف کنیم. (Cuzzocrea et al. 2018, 169) این تعریف میتواند رباتهای صنعتی سازنده خودرو، رباتهای خانگی مانند روبات جاروبرقی و همچنین روباتهای انساننما را که امروزه در بسیاری از زمینهها مورد استفاده قرار میگیرند، در بر بگیرد.
به طور خلاصه، ما هوش مصنوعی را یک حوزه فناوری یا علمی در نظر میگیریم که سعی در توسعه الگوریتمها و سیستمهایی برای شبیهسازی و مدلسازی قابلیتها و فرآیندهای ذهنی انسان و طبیعت دارد. رباتها در مقابل، محصولات و نمونههای عملی از کاربرد هوش مصنوعی هستند که جنبههای فیزیکی مانند حرکت، جابجایی و واکنش به محیط را دارند. از این رو، میتوان گفت که همه رباتها نوعی هوش مصنوعی دارند، اما هوش مصنوعی لزوماً شکل فیزیکی یک ربات را ندارد. اکنون که هوش مصنوعی و ربات را تعریف کردیم، میتوانیم درباره جنبههای حقوقی و مسئولیتهای احتمالی آنها بحث کنیم.
این واژه در نزدیکترین ترجمه به فارسی به معنای "کار اجباری یا برده" است. در این نقطه میبینیم که در ریشه واژه، با اولین سنگ بنای تعریف ربات روبرو هستیم و باید رباتها را به عنوان موجوداتی که برای کار ساخته شدهاند در نظر بگیریم. همچنین برای حداقل رباتهای علمی-تخیلی، این واقعیت که آنها باید با حرکت در دنیای فیزیکی و تأثیرگذاری بر آن کار کنند، بحث برانگیز نیست. این ادعا مطرح شده است که انسان در اصل یک ربات خودکار است. (Say 2019, 45) اما اگر در نظر بگیریم که رباتها در اساس برای تقلید از انسانها و انجام کارها و رفتارهای ویژه انسانها برنامهریزی شدهاند، میتوان دید که این تعریف چندان دقیق نیست. تعریف ریچاردز و اسمارت7 با استناد به این دادهها این است: "ربات به چیزی گفته میشود که زنده نیست، ساخته شده است و ویژگیهای فیزیکی و ذهنی از خود نشان میدهد." (Richards and Smart 2012, 6)
امکان دستیابی به تعاریف دیگری از ربات نیز وجود دارد. به عنوان مثال، در گزارش رباتیک سازمان ملل متحد در سال 2005، ربات "ماشینی که به طور کامل یا جزئی به صورت خودکار عمل میکند یا قابل برنامهریزی است" تعریف شده است. (Bozkurt-Yüksel 2017, 87) اما از دیدگاه جهان حقوقی، چندان قابل بحث نیست که در تعریف یک ربات که قرار است تا حدی برای اعمالش مسئول شناخته شود، نباید "ماشینهای با عملکرد نیمهخودکار" که در تعریف سازمان ملل آمده، جای داشته باشند. آنچه واقعاً قابل بحث است و ما سعی میکنیم تعریف کنیم، رباتهایی هستند که یک حرکت را کاملاً با پیشبینی نتیجه اعمالشان و با اراده خودشان انجام میدهند.
در این صورت، پیشنهاد ما برای تعریف ربات این خواهد بود: "موجود مصنوعی و هوشمند که دارای وجود و تأثیر در دنیای فیزیکی است، برای کارکردنش نیازی به کنترل توسط انسانها یا سایر رباتها یا موجودات هوشمند ندارد." نکته مهم دیگری که باید اضافه کنیم این است که گرچه ربات باید دارای وجود و تأثیر در دنیای فیزیکی باشد، اما هوش مصنوعی ممکن است موجودی باشد که فقط در محیط الکترونیکی وجود دارد و فعالیت میکند. نکته دیگری که باید بیان کنیم این واقعیت است که هرچند هر ربات حتماً یک موجود دارای هوش مصنوعی است، اما هر موجود هوشمند لزوماً به عنوان ربات تلقی نمیشود.
رباتها و سیستمهای هوش مصنوعی میتوانند بسیاری از کارهایی را که انسانها انجام میدهند صورت دهند. به عنوان مثال، آنها میتوانند خریدهای آنلاین انجام دهند، رانندگی کنند، کارهای اداری و منزل را انجام دهند، آشپزی کنند، در کارخانهها کار کنند و حتی در سطح بالاتری بیمارستانها را اداره کنند و عملهای جراحی انجام دهند. (Calo 2015, 529-530) این فهرست روز به روز در حال گسترش است و کارهایی که زمانی فقط انسانها میتوانستند انجام دهند، اکنون توسط رباتها و هوش مصنوعی قابل انجام است.
در این مرحله، میتوان پرسید که آیا این سیستمهای هوشمند باید تحت لوای قانون قرار بگیرند یا خیر. برخی معتقدند که سیستمهای هوشمند فاقد ویژگیهای ضروری برای پذیرش مسئولیت هستند و نباید تحت قانون باشند. (Bryson 2010) از طرف دیگر، استدلال شده است که سیستمهای هوشمند در حال پیشرفت به سمت توانایی تصمیمگیری خودمختار هستند و باید مسئول عواقب تصمیمات و اقدامات خود باشند. (Asaro 2012)
اگر سیستمهای هوشمند باید تحت پوشش قانون قرار بگیرند، پرسش بعدی این است که چگونه باید به آنها نگریسته شود. آیا باید مانند اشیاء یا اموال در نظر گرفته شوند؟ آیا باید به عنوان شخص حقوقی شناخته شوند؟ یا اینکه یک رژیم حقوقی کاملاً جدید برای آنها ایجاد شود؟ این پرسشها و موضوعات مرتبط از جمله مسئولیت مدنی، کیفری و اخلاقی سیستمهای هوشمند، در ادامه این مقاله مورد بحث قرار خواهند گرفت.
در حال حاضر، مقررات حقوقی مختلفی برای رباتها و موجودات هوش مصنوعی در حال تدوین است. این مقررات تحت رهبری کشورهایی مانند بریتانیا، ایالات متحده آمریکا، ژاپن، کره جنوبی و اتحادیه اروپا انجام میشود. (Ersoy, 2018, 37) بخشی از این مقررات حقوقی، قوانین موجود را به گونهای گسترش میدهند که شامل رباتها نیز بشود، در حالی که بخش دیگر، مسئولیتهای تولیدکنندگان ربات در فرایند تولید را تنظیم میکند. (Ersoy, 2018, 38) در این زمینه میتوانیم بگوییم که به جای تنظیم وضعیت حقوقی رباتها، حوزههای ثانویه تنظیم شدهاند. استثنای این موضوع کره جنوبی است که اولین کشوری بود که قانونی را برای تنظیم وضعیت مستقیم رباتها یا هوش مصنوعی وضع کرده است.
2. ارتباط بین ماشینهای دارای هوش مصنوعی و مفهوم بردگی
واضح است که هوش مصنوعی در سطحی که از هوش انسانی قابل تمایز نباشد، وارد زندگی انسان خواهد شد. اما اینکه این مشارکت چه نتیجهای برای بشریت خواهد داشت هنوز روشن نیست. افرادی مانند ایلان ماسک8 و استفان هاوکینگ9 بر این باورند که هوش مصنوعی برای آینده بشریت مفید نخواهد بود. تصور این که رباتهایی که از هوش انسانی پیشی گرفته، قادر به تولید ماشینهای همانند خود هستند و میتوانند خود را ارتقا دهند، به این ایده برسند که موجودی به نام انسان برای جهان مضر است و بشر را از تخت سلطنت جهان پایین بکشند، کابوس بسیاری از دانشمندان است. اما تهدید هوش مصنوعی موضوع یک مقاله دیگر است. مقاله ما در مورد اینکه چگونه باید از نظر حقوقی در دنیایی که روال کارها خوب پیش میرود و ماشینهای دارای هوش مصنوعی به عنوان کمکرسان انسان پذیرفته میشوند، به هوش مصنوعی نگریست.
چگونگی ارزیابی حقوقی ماشینهای دارای هوش مصنوعی متفکر، قادر به تصمیمگیری و انجام فعالیتهای انسانی (اینکه آیا شخص محسوب میشوند یا خیر، اهلیت حقوق یا اهلیت عمل دارند یا ندارند یا از نظر مسئولیتها چگونه طبقهبندی خواهند شد) یکی از مهمترین مسائلی خواهد بود که بشریت در آینده باید آن را حل کند.
این مشکل میتواند به عنوان یک مسئله تازه در نظر گرفته شود که نیازمند مقررات کاملا جدیدی است، زیرا حقوق اساسی در قوانین موجود کاملا برای انسانها تنظیم شده است. بنابراین میتوان استدلال کرد که با اشارهای به دکترین حقوق طبیعی، عقل انسان باید این مشکل را از ابتدا مورد بررسی قرار دهد و مقررات لازم را وضع کند. (Karadeniz-Çelebican, 2016, 85) با این حال، همانطور که مکتب حقوق تاریخی نیز استدلال میکند، حقوق نتیجه یک تکامل تاریخی است و فرهنگی است که توسط تاریخ شکل گرفته است. (Küçük, 2007, 118) بنابراین به نظر ما، راه حل این مشکل باید در گذشته جستجو شود و به نظر ما راه حل در حقوق رومی نهفته است.
حقوق رومی امروزه به جز یک یا دو استثنا، در هیچ کشوری به طور مستقیم اعمال نمیشود. اما بدون هیچ بحثی، با تاثیرش بر سیستمهای حقوق خصوصی امروزی، به زندگی، تدریس و بحث ادامه میدهد و در مورد حقوق خصوصی، راه را برای بسیاری از حقوقدانان روشن میکند. منشأ بسیاری از احکام مدرن نیز در حقوق رومی است. البته هر چیزی در حقوق رومی زنده نمانده است. مقررات مربوط به بردگی (Villey, 2010, 145) دیگر حکمی در زمان حاضر ندارند. اما به نظر میرسد که یکی از این مقررات "زنده نمانده" حقوق رومی که همان احکام مربوط به برده داری است با حضور رباتهای هوشمند دوباره مطرح شود.
در واقع، هنگام ارزیابی ربات ها، مناسبترین مقایسه در تاریخ، بردهها هستند. بزرگترین دلیل این مقایسه این است که هم بردهها و هم رباتهای دارای هوش مصنوعی میتوانند به عنوان اموال (عین) متفکر پذیرفته شوند. هم مفهوم ربات و هم مفهوم برده میتواند به عنوان "شیء باهوش" در نظر گرفته شود. ابتدا در مقاله ما مفهوم بردگی و تاریخچه آن را بررسی خواهیم کرد، سپس از وضعیت حقوقی برده در حقوق رومی صحبت خواهیم کرد و در نهایت توضیح خواهیم داد که چرا رباتها میتوانند به عنوان برده در نظر گرفته شوند.
3. بردگی و تاریخچه آن
واژه برده در لاتین به معنای انسانی است که از لحاظ قانونی شخص محسوب نمیشود بلکه مال به شمار میآید و از آزادی محروم است. (Umur, 1975) آزادی که در مقابل بردگی قرار دارد، توانایی انسان در انجام هر آنچه که میخواهد مگر آنکه با زور یا قانون محدود شده باشد، تعریف شده است (Buckland, 1908, 1) گرچه امروزه میتوان از انواع مختلف بردگی صحبت کرد (بردگی مدرن و غیره)، اما بردگی به معنای عصر باستان دیگر وجود ندارد. در عصر باستان، بردگی یک مفهوم مشترک در میان تمام اقوام بود و جامعهای بدون برده قابل تصور نبود. معلوم است که نهاد بردگی، پایه نظام اقتصادی و اجتماعی عصر باستان را تشکیل میداد. در روم باستان نیز وضعیت همین گونه بود. کشاورزی، بهرهبرداری از معادن، آهنگری، نجاری و مشاغل مشابه، کشتیرانی و بخش عمدهای از زندگی تجاری بر کار بردهها متکی بود . (Visky, 1974, 44)
در روم باستان و سایر تمدنهای قدیم، آنها حقیقت برابری تمام انسانها را میدانستند، اما به دلایل اقتصادی و اجتماعی، ترجیح میدادند این حقیقت را نادیده بگیرند. بنابراین، نهاد بردگی در نتیجه روابط اجتماعی و اقتصادی خاص به وجود آمد، به عنوان پایه نظام اقتصادی و اجتماعی عصر باستان پذیرفته شد و به عنوان یک نیروی کار بسیار ارزان، نیازهای نیروی کار در زندگی اقتصادی آن روزگاران را برآورده میساخت. Bozkurt, 1981, 67))
4. ارتباط بردگان با ماشینهای دارای هوش مصنوعی (رباتها)
با بررسی وضعیت بردگان در حقوق روم، مشخص میشود که وضعیت رباتهایی که باور داریم در آینده نزدیک بخشی از زندگی ما خواهند شد، تا چه اندازه شبیه به بردگان است. در واقع، حتی واژه "ربات" نیز با بردگی در ارتباط است. این اصطلاح برای اولین بار در سال 1920 در یک نمایشنامه توسط یک نویسنده چک استفاده شد. در این نمایشنامه، رباتها به عنوان انسانهای مصنوعی که در کارخانهها به عنوان برده کار میکردند، نشان داده شده بودند. در واقع، واژه رباتی در زبان چک به معنای بردگی، خدمت اجباری و کار سخت است. (Ibid, 86)
شباهت اصلی میان بردگان و رباتهایی که قرار است دارای هوش مصنوعی باشند، در این است که هر دو در جایگاه یک شیء قرار میگیرند. در واقع، همانطور که قبلاً توضیح داده شد، بردگان در طول تاریخ روم به عنوان یک شیء یا مال مورد رفتار قرار میگرفتند. برای بردگان میتوان تعریف "یک شیء قادر به تفکر، تصمیمگیری و داشتن احساسات" را ارائه داد. درست همانطور که برای رباتهای دارای هوش مصنوعی نیز چنین تعریفی قابل ارائه است. جونز نیز در کتاب خود، هنگام بحث در مورد ارزش بردگان، به چنین تشبیهی اشاره کرده است: "بردگان بسیار ارزشمند بودند، اگر بخواهیم مثالی از زندگی مدرن در این زمینه ارائه دهیم، هیچکس یک ماشین لباسشویی را که در انجام کاری که برای آن خریداری شده ناموفق بوده است، کتک نمیزند و روز خود را با این کار نمیگذراند. بنابراین، گرچه بردگان همانند یک کاناپه یا مبل دستهبندی میشدند، اما آنها برای انجام کارهای جدی خریداری میشدند" (Jones, 2016, 164). همانطور که جونز نیز اشاره کرد، بردگان در روم متفاوت از یک ماشین لباسشویی ارزیابی میشدند. بنابراین آنها تفاوتی با ماشینهای انجام دهنده کارهای مختلف نداشتند. هنگامی که ماشینهای دارای هوش مصنوعی وارد زندگی ما شوند، درست مانند بردگان، قادر به انجام معاملات حقوقی، تفکر و خدمت به انسان خواهند بود و همچنین میتوانند خریده و فروخته شوند. از این نظر، میتوان آنها را خویشاوندان تکنولوژیک بردگان، که در گذشته هم جنبه (شیء - مال) و هم جنبه شخص را داشتند، در نظر گرفت.
حقوق روم، به ویژه در قاره اروپا، منشأ بسیاری از نظامهای خصوصی حقوقی معتبر بوده و یک نظام حقوقی ریشهدار محسوب میشود. اگر این نظریه که قواعد حقوقی در نتیجه تحول تاریخی شکل گرفتهاند را بپذیریم، غیرممکن نیست که راهحلهایی که حقوق روم برای حکومت بر یک امپراتوری عظیم کافی بوده است، بتواند به شرایط امروزی نیز روشنایی ببخشد. به نظر ما، امکان و ضرورت اینکه قوانینی که در گذشته برای بردگانی که به عنوان اشیاء طبقهبندی شده بودند اما تحت عنوان حقوق مربوط به انسانها نیز مورد بررسی قرار میگرفتند، اعمال شده است، برای رباتها که میتوانند به عنوان بردگان امروزی در نظر گرفته شوند، نیز قابل اجرا باشد. به ویژه هنگام وضع مقررات در زمینه حقوق قراردادها برای معاملاتی که رباتها برای صاحبان خود انجام میدهند، باید از حقوق روم الگو گرفت.
5. چالشهای فراروی وضع مقررات راجع به ربات ها
مشاهدات نشان میدهد که روزهایی که از ارتباطات رباتها با انسانها (و حتی ارتباط متقابل آنها با یکدیگر) معاملات حقوقی و در نتیجه مسائل حقوقی ایجاد شود، چندان دور نیست. گرچه به نظر میرسد مشکلات بالقوه تا حدودی میتواند با قوانین و مقررات موجود حل شود، اما با افزایش تعداد رباتها، حوزههای کاربرد و اهداف آنها، احتمالاً نیاز به قوانین مربوط به رباتها قوی خواهد بود. همچنین نباید فراموش کرد که سوژه مقررات حقوقی موجود انسان است. بنابراین این مقررات از یک نقطه به بعد نمیتواند نیازهای حقوقی ماشینهای قادر به عمل هوشمندانه را برآورده کند.
نخستین مشکلی که هنگام وضع مقررات برای رباتها ایجاد میشود، این است که این ماشینهای دارای هوش مصنوعی چگونه باید ارزیابی شوند. ما معتقدیم باید با استفاده از قیاس، از مفهوم برده و مقررات ویژه بردگان در حقوق روم برای این ماشینهای هوشمند استفاده کرد. به عنوان مثال، در حقوق موجود مدنی، شخصیت حقوقی برای هر شیء یا موجودی در نظر گرفته نمیشود. با این حال، میتوان برای رباتهای دارای هوش مصنوعی که قادر به تصمیمگیری هستند، نوعی شخصیت حقوقی یا اهلیت حقوقی محدود در نظر گرفت. چنین رویکردی میتواند مبتنی بر رویکرد حقوق روم در خصوص بردگان باشد که به آنها این امکان را میداد تا در محدودهای معین، دارای حقوق و تعهدات باشند.
علاوه بر این، میتوان بر اساس حقوق روم که اجازه میداد بردگان در امور تجاری ارباب خود مداخله کنند، حوزههایی را برای رباتها در نظر گرفت که در آن حوزهها، اعمال و معاملات آنها مورد توجه حقوق قرار گیرد. این میتواند مانند موردی باشد که در آن پرتورهای روم، صاحبان بردگانی را که آنها را به عنوان ناخدا کشتی یا مدیر کسب و کار منصوب کرده بودند، مسئول اعمال بردگان میدانستند.
در نهایت، همانطور که حقوقدانان روم معتقد بودند برخورد انسانی با بردگان باید رعایت شود، لازم است در قوانین مربوط به رباتها نیز مسائل اخلاقی مدنظر قرار گیرد و از رویکردهای قانونی که به رباتها به عنوان اشیاء صرف مینگرند، پرهیز شود به عنوان مثال، اینکه ماشینهای دارای هوش مصنوعی میتوانند دارای حقوق باشند یا خیر، یک موضوع بحثبرانگیز در نظریههای حقوقی است و باید حل شود. اگر به این ماشینها همان جایگاهی که روم به بردگان میداد اعطا شود، این ابهام روشن خواهد شد. به این صورت که این ماشینهای دارای هوش مصنوعی میتوانند به عنوان مال محسوب شوند، یعنی میتوان پذیرفت که آنها فاقد اهلیت حقوقی هستند. بنابراین، این ماشینها نمیتوانند دارای حقوق باشند و متعهد نمیشوند. یعنی به عنوان شخص در نظر گرفته نمیشوند. اما همانطور که بردگان به دلیل داشتن عقل و اراده میتوانستند معاملات حقوقی خاصی را انجام دهند، برای این ماشینها نیز میتوان چنین امکانی را فراهم کرد. بنابراین، اگرچه ماشینها فاقد اهلیت حقوقی هستند، میتوان به آنها اهلیت انجام معاملات حقوقی را اعطا کرد. البته از آنجا که فاقد اهلیت حقوقی هستند، حقوقی که از معاملات آنها ناشی میشود، متعلق به خودشان نخواهد بود. این حقوق، همانطور که در روم بود، میتواند بر اساس قاعده "هر آنچه برده به دست میآورد، برای ارباب به دست آمده است" ، مستقیماً به شخصی که مالک ماشین است، منتقل شود. به عبارت دیگر، حقوقی که از معاملات ماشین ناشی میشود، میتواند متعلق به صاحب آن باشد، گویی خود او آن معامله را انجام داده است.
قاعده مذکور فقط مربوط به دستاوردهای بردگان است. اگر یک ماشین بتواند معامله حقوقی انجام دهد، در این معامله گاهی ممکن است حقوقی کسب کند و گاهی نیز متعهد شود. به عنوان یک مثال ساده، اگر ماشینی را در نظر بگیریم که با شناخت از نیازهای خانه، از طریق اینترنت خریدهایی انجام میدهد، از آنجا که قرارداد خرید و فروش تعهداتی را بر عهده هر دو طرف میگذارد، ماشین نیز متعهد خواهد شد. در این موقعیت، میتوان از راهحلی که رومیان برای بردگان خود یافتند، استفاده کرد. رومیان به بردگانی که به آنها اعتماد داشتند، برای بهکارگیری آنها در کارهای خاص، مقداری سرمایه میدادند. بردگان که فاقد اهلیت حقوقی بودند، حق استفاده از این سرمایه و انجام انواع معاملات بر روی آن را داشتند (Umur, 1999, 152)
در آینده، با اختصاص مقداری سرمایه به برای رباتها و اعمال قواعد و دعاوی مربوط به آن که در مورد صاحبان بردگان قابل استفاده بود میتواند در تنظیم مقررات برای معاملات ماشینها راهنما باشد. یکی دیگر از قواعد حقوق روم در خصوص بردگان که میتواند برای ماشینها اعمال شود، این است که اگر بردهای در راس شغل یا کسب و کار ارباب قرار میگرفت، ارباب در قبال تعهدات ناشی از اعمال برده مسئول میشد. بدین ترتیب، ماشینهای دارای هوش مصنوعی جایگاهی را به دست خواهند آورد که فاقد اهلیت حقوقی هستند اما میتوانند از جانب صاحب خود معاملات حقوقی انجام دهند.
این رویکرد میتواند در بسیاری از موارد مانند تعیین سهم ماشین در ضرر و زیانهای احتمالی، تقسیم داراییهای از معاملات ناشیشده بین ماشین و صاحب آن، ایجاد نوعی شخصیت حقوقی یا اهلیت محدود برای ماشینها و موارد دیگری که میتواند در عمل پیش آید، راهگشا باشد. بنابراین، لازم است با در نظر گرفتن چالشهای مختلف، تجربیات تاریخی نظیر رویکرد روم در مورد بردگان به طور جدی مورد بررسی قرار گیرد.
این رویکرد میتواند در بسیاری موارد مانند تعیین سهم ماشین در خسارات احتمالی، تقسیم داراییهای حاصل از معاملات بین ماشین و صاحب آن، ایجاد نوعی شخصیت حقوقی یا اهلیت محدود برای ماشینها و موارد دیگری که ممکن است در عمل پیش آید، راهگشا باشد. بنابراین، لازم است با در نظر گرفتن چالشهای مختلف، تجربیات تاریخی نظیر رویکرد روم در مورد بردگان به طور جدی مورد بررسی قرار گیرد. علاوه بر این، همانطور که حقوقدانان روم معتقد بودند باید با بردگان به شیوهای انسانی رفتار شود، در قوانین مربوط به ماشینها نیز باید مسائل اخلاقی را در نظر گرفت و از رویکردهای قانونی که صرفاً آنها را به عنوان اشیاء در نظر میگیرند، پرهیز کرد.
سرانجام، امروزه فناوریهای هوشمند مختلف بخشی از زندگی ما شدهاند، از تلفنهای هوشمند گرفته تا لوازم خانگی هوشمند و خودروهای بدون راننده. مشاهدات نشان میدهد که روزهایی که از تعامل ماشینها با انسانها و یکدیگر، معاملات و مسائل حقوقی ایجاد شود، چندان دور نیست. پس از مدتی، نیاز به وضع قوانین خاص برای ماشینها احساس خواهد شد، زیرا مقررات موجود که سوژه آن انسان است، نمیتواند نیازهای حقوقی موجودات قادر به عمل هوشمندانه را برآورده کند. بنابراین، استفاده از تجربیات تاریخی مانند رویکرد حقوق روم در مورد بردگان میتواند برای تنظیم قوانین و مقررات مربوط به ماشینهای هوشمند، مفید و کارآمد باشد. تجربه نظامهای حقوقی پیشین در برخورد با موجوداتی که نه کاملاً انسان و نه کاملاً شیء بودند، میتواند مسیر را برای قانونگذاران هموار کند تا با چالشهای پیش روی فناوری هوشمند به شیوهای عملی و اخلاقی برخورد کنند.
محدودیتهای حق مالکیت روی ربات نیز میتواند به عنوان یک مشکل دیگر به وجود آید. در روم، آسیب رساندن یک ارباب به برده اش جرم محسوب نمی شد. در واقع، رومیها میتوانستند بردههای خود را بکشند. اما با گذشت زمان، قوانینی برای محدود کردن اختیارات نامحدود صاحبان بر بردهها وضع شد. به عنوان مثال، یکی از این قوانین این بود که اگر کسی بدون دلیل برده خود را میکشت، مانند کسی که برده دیگری را کشته است با او رفتار میشد. (Karadeniz-Çelebican, 2017, 139) با گذشت زمان، قوانین جدیدی برای تنظیم شرایط زندگی بردهها نیز وضع شد. اما در مورد رباتها، در دکترین این نظر وجود دارد که امکان دارد انسانهایی که با رباتهای شبیه انسان بدرفتاری میکنند، مانند انسان هایی که با انسانها یا حیوانات دیگر بدرفتاری میکنند درک شوند. (Türkoğlu-Özdemir, 2022, 94) شک دارد که رباتهای آینده پس از پیشرفتهای تکنولوژیکی تا چه حد موجودات احساسی، آزار دیده و آگاه خواهند بود. اما خشونت نشان دادن به این ماشین هایی که از نظر تاثیر بر محیط زیست نقاط مشترکی با انسان دارند، میتواند پیامدهای منفی داشته باشد.10
مسئولیت مدنی رباتها یک مشکل کاملا متفاوت است. آسیب رساندن رباتها به دیگران، اعم از عمدی یا غیرعمدی، یا ارتکاب جرم توسط آنها ممکن است مطرح شود. در این صورت راهحلهایی مانند مجازات رباتها، زندانی کردن آنها یا انتظار غرامت از ربات هایی که نمی توانند مالک باشند، غیرممکن است. مسئولیت قطعاً متوجه مالک خواهد بود، اما نحوه این مسئولیت مشکوک است. مواردی مانند مسئولیت بدون تقصیر کارفرما یا صاحب حیوان ممکن است به این فناوریهای هوشمند تعمیم داده شود. اگر ربات مرتکب جرم شود، میتوان به مسئولیت صاحب برده در حقوق روم مراجعه کرد. اگر این مسئولیت به آینده فناوری ما تعمیم داده شود، شخصی که از جرم آسیب دیده است میتواند به صاحب ربات مجرم شکایت کند. در این شکایت، او میتواند از صاحب ماشین هوشمند خواسته جریمه نقدی مربوط به جرم را جبران کند یا ربات را به او تحویل دهد. این نوع مسئولیت که در حقوق روم "مسئولیت نوکسال" نامیده میشد، میتواند با اصلاحات و تنظیمات لازم به صاحبان ربات اعمال شود. اما برخلاف حقوق روم که در آن به بردههای مجرم مجازاتهای سنگینی تحمیل میشد، تردید داریم که اعمال چنین مجازات هایی به ماشینها مفید باشد. در مواردی که برده مورد حمله قرار میگرفت، در روم چون برده مال محسوب میشد، مانند حمله به مال شخص با آن رفتار میشد. ما معتقدیم اگر همین رویه در مورد رباتها اعمال شود، مفید خواهد بود.
مسائل مربوط به رباتها، از آنجا که این فناوری بسیار نوین است، مسائلی هستند که باید بسیار مورد مطالعه، تفکر و تحقیق قرار گیرند و تعداد آنها با گذشت زمان افزایش خواهد یافت. در اینجا فقط به چند مشکل اساسی اشاره کردیم. نظر ما این است که یک سیستم حقوقی مانند حقوق روم که حتی صدها سال پس از خود نیز تأثیرگذار بوده است، میتواند به روش قیاس به این فناوری تعمیم داده شود و حداقل برخی از مشکلات را حل کند و درهای جدیدی را به روی ما بگشاید.
6. هوش مصنوعی و مسئولیت کیفری
این که چه کسانی از نظر حقوقی باید مسئول اقدامات انجام شده توسط هوش مصنوعی خودمختار شناخته شوند، و حتی اینکه آیا مسئولیت کیفری به اندازه انسانها به هوش مصنوعی با خودمختاری در سطح انسانی اعطا خواهد شد یا خیر، از مواردی است که امروزه باید مورد بررسی قرار گیرد. این بررسی، با در نظر گرفتن بحثها در مورد مسئولیت حقوقی، مسائل پیچیده تری را در بر میگیرد. حتی برای آینده نزدیک، در آموزه، نظراتی مبنی بر اینکه هوش مصنوعی هیچ گونه مسئولیت کیفری نخواهد داشت نیز بیان شده است. به نظر ما، در برابر عدم قطعیت آینده، باید از قضاوتهای قطعی اجتناب کرد و نباید از تولید اندیشه در این زمینه پرهیز کرد. زیرا این اندیشهها نه تنها محدود به هوش مصنوعی نیست، بلکه در بحثهای گسترده فلسفی از آزادی اراده تا توانایی تقصیر، از اینکه آیا حیوانات موضوع حق هستند یا خیر تا مسئولیت کیفری اشخاص حقوقی و نظریههای مجازات، درونی شده است. از سوی دیگر، ارزیابی اینکه در صورت نقض منافع تحت حمایت قوانین کیفری توسط هوش مصنوعی، چه کسانی باید مسئول شناخته شوند، یک ضرورت فعلی است که اکنون با آن روبرو هستیم
ما نیز در این بخش از مطالعه به طور خلاصه دیدگاه هایمان را در مورد هم مسئولیت کیفری احتمالی آینده هوش مصنوعی و هم اینکه چه کسانی میتوانند در صورت ارتکاب جرم توسط یک هوش مصنوعی مسئول شناخته شوند، به اشتراک خواهیم گذاشت
در واقع، میتوان رابطه میان حقوق کیفری و هوش مصنوعی را در چارچوب پاسخ به سه مسئله اصلی بنا نهاد. در عنوان اول، میتوان بررسی کرد که آیا هوش مصنوعی مسئول اعمال مجرمانه شناخته خواهد شد یا خیر، به عبارت دیگر آیا مسئولیت کیفری خواهد داشت؟ آیا هوش مصنوعی میتواند به ظرفیت شناختی ماهرانه ای برای قضاوت دست یابد؟ یا باید مانند کودکان یا حیوانات با آن رفتار شود؟ این سوالات ارتباط نزدیکی با بحثهای مربوط به مسئولیت کیفری اشخاص حقوقی و دیدگاه هایی درباره اینکه آیا حیوانات موضوع حق هستند یا خیر، دارند. مسائل دوم و سوم که در ادامه مطالعه مورد بررسی قرار میگیرند، در واقع به عنوان اول مرتبط هستند. زیرا اگر پذیرفته شود که هوش مصنوعی میتواند رفتار مقصرانه داشته باشد، بحث در مورد چگونگی مجازات آن، با توجه به اصل شخصی بودن مجازات، به طور خودکار پیش میآید. آیا مجازات، وجود موجودی از گوشت و استخوان را که قادر به تحمل رنج است الزام میکند؟
روشهای مجازات موجود در نظامهای حقوقی امروز ممکن است در برابر یک موجود رباتیک با هوش مصنوعی ناکارآمد باشند. تلاش برای پاسخ دادن به پرسشهای ناشی از این وضعیت، بدون شک یک تلاش لذت بخش خواهد بود؛ زیرا منجر به تولد یک ساختار حقوقی جدید میشود. علاوه بر این، این سوال نیز میتواند مطرح شود: اگر پذیرفته شود که هوش مصنوعی میتواند همانند یک انسان (یا حتی یک انسان بالغ) رفتار مقصرانه داشته باشد، آیا باید نسبت به بی عدالتی هایی که در قبال یک موجود غیرانسانی که شاید تواناییهای برتر از انسان دارد صورت میگیرد، مجازات اعمال شود و اگر چنین است، چگونه باید مجازات شود؟
سومین سوال که برای زمان حاضر حیاتی ترین است و تا حدی مستقل از موارد ذکر شده در بالا است، این است که اگر هوش مصنوعی مسئولیت کیفری نداشته باشد، چه کسانی و چگونه باید در قبال اقدامات خودمختار جرم زای آن مسئول شناخته شوند.
برای یافتن پاسخ این سوالات، ابتدا باید تواناییهای هوش مصنوعی را از دیدگاه نظریه کلی جرم ارزیابی کرد و بررسی نمود که آیا تواناییهای فعلی یا بالقوه آن، امکان برآورده ساختن عناصر ساختاری جرم را دارد یا خیر. در این مقاله، بهمنظور بررسی سادهتر، بیان روشنتر و درک بهتر موضوع، از تقسیمبندی دوگانه عنصر مادی11 و عنصر معنوی12 که در مکتب حقوق کیفری کلاسیک و حقوق کیفری رویه قضایی و بین المللی استفاده میشود، بهره خواهیم گرفت.
بر اساس مکتب حقوق کیفری کلاسیک، عنصر مادی جرم از حرکت ارادی بدن انسان تشکیل میشود. (Demirbaş, 2009, 208) بنابراین، اگرچه واضح است که هوش مصنوعی از بدنهای رباتیک استفاده خواهد کرد و آنها را حرکت خواهد داد، اما اینکه آیا حرکات رباتها ارادی هستند یا خیر، یک موضوع بحث جدی است. اگر این حرکات ارادی نباشند، هوش مصنوعی توانایی حرکت نخواهد داشت. به نظر ما، از آنجایی که هوش مصنوعی از طریق حسگرهایش تغییرات در دنیای خارج را درک میکند و با استفاده از الگوریتمهای موجود در نرم افزارش آنها را ارزیابی میکند و به طور خودمختار در راستای یک هدف خاص عمل میکند، به راحتی میتوان حرکات انجام شده را به آن نسبت داد. به عبارت دیگر، برای هوش مصنوعی، اینکه آیا عملش ارادی است یا خیر، باید بر اساس اینکه آیا رفتار آن از نرم افزارش ناشی میشود یا خیر، تعیین شود. بنابراین، در مواردی که هوش مصنوعی هک (نفوذ غیرمجاز) شده است، میتوان بر اساس میزان خودمختاری از دست رفته یا باقی مانده هوش مصنوعی، فرد هکر را به طور مستقیم یا غیرمستقیم مسئول قلمداد کرد. هر چند در حال حاضر هوش مصنوعی به سطح پیشرفته تصور شده شناختی دست نیافته است، اما این بحث در اساس نباید بر روی عنصر مادی جرم باشد، بلکه باید بر روی توانایی تقصیر آن متمرکز باشد چرا که هوش مصنوعی به دلیل خودمختاری که دارد میتواند از بدنهای رباتیک استفاده کند، اما اینکه آیا میتواند ارزیابیهای اخلاقی انجام دهد و از پیامدهای اجتماعی اعمال خود آگاه باشد، در زمان حال برای ما بسیار دشوار است تا باور کنیم. (Gless, Silverman & Weigend, 2016, 420) بنابراین، توانایی تقصیر (انتساب) رباتها به عنوان یک مشکل مهم پیش روی ما قرار میگیرد. هوش مصنوعی شاید بتواند به طور خودمختار حرکت کند، اما آیا توانایی تشخیص درست از نادرست/خوب از بد به طور خودمختار را دارد؟ هوش مصنوعی به جای داشتن قضاوت ارزشی درباره اعمال یا تولید آن، همانند یک انسان، فقط دستورات وارد شده در نرم افزارش را اجرا میکند. از آنجایی که هوش مصنوعی براساس نرم افزارش عمل میکند، توانایی خودتعیینی اخلاقی13 نخواهد داشت و نمی تواند به طور خودجوش ماهیت ضداجتماعی رفتارش را ارزیابی کند. به همین دلیل، حداقل در مورد هوش مصنوعی ضعیف، صحبت از تقصیر آن نه از دیدگاه روانشناختی تقصیر و نه از دیدگاه هنجاری آن، سازگار نیست (Gless et al., 2016, 421-424).
با این حال، بعضی نویسندگان استدلال میکنند که حتی اگر هوش مصنوعی فاقد توانایی قضاوت اخلاقی باشد، این امر لزوماً به این معنی نیست که نمیتوان هیچ مفهوم تقصیری را به آن نسبت داد. به عنوان مثال، یکی از نویسندگان پیشنهاد کرده است که اگر هوش مصنوعی طوری برنامه ریزی شده باشد که از عملکرد خاصی خودداری کند، انحراف از این برنامه ریزی میتواند به عنوان نوعی بی احتیاطی یا سهل انگاری در نظر گرفته شود. (Gurney, 2015, 247) با این حال، چنین دیدگاهی همچنان با مشکلات جدی روبرو است، از جمله اینکه آیا میتوان هوش مصنوعی را واقعاً مسئول رفتارهایی دانست که ممکن است کاملاً غیرقابل پیش بینی برای آن باشد.
بنابراین، برای زمان حاضر، به نظر میرسد که رباتها و هوش مصنوعی نمی توانند مسئولیت کیفری داشته باشند. اما این موضوع، سوال مهم دیگری را مطرح میکند: اگر هوش مصنوعی مرتکب عملی شود که اگر توسط یک انسان انجام میشد، جرم محسوب میشد، چه کسی باید مسئولیت آن را بپذیرد؟ متخصصان حقوقی چندین گزینه را پیشنهاد کرده اند، از جمله:
- مسئولیت سازنده یا برنامه نویس: در این رویکرد، شرکت یا فردی که هوش مصنوعی را ساخته یا برنامهریزی کرده است، مسئول شناخته میشود، مشابه مسئولیت تولیدکنندگان محصولات معیوب. (Hallevy, 2015)
- مسئولیت مالک یا کاربر: بر اساس این دیدگاه، همانطور که صاحبان حیوانات مسئول آسیبهای ناشی از حیوانات خود هستند، مالکان یا کاربران هوش مصنوعی باید برای اعمال آن مسئول باشند. (Vladeck, 2014)
- مسئولیت مشترک: برخی پیشنهاد میکنند که مسئولیت باید بین سازندگان، مالکان و حتی دولتها به عنوان تنظیم کنندگان این فناوری تقسیم شود (Calo, 2015) .
انتخاب میان این گزینهها به عوامل مختلفی از جمله نقش و درجه کنترل هر یک از طرف ها، سطح خطر فعالیت و سیاستهای عمومی مرتبط بستگی خواهد داشت. اما در هر صورت، روشن است که با گسترش و پیچیده تر شدن هوش مصنوعی، مسئله مسئولیت کیفری برای جرائم آن باید هرچه زودتر مورد توجه جدی قرار گیرد.
همانطور که مشخص است پاسخ به سوالات فوق در یک گره تنیده شده است. با حل این گره، به نظر میرسد دستیابی به پاسخ سایر سوالات نسبتاً آسان خواهد بود. این گره به وجود خودِ هوش مصنوعی مربوط میشود؛ یکی از مسائل اساسی حقوق جزا و حتی قبل از آن، فلسفه است: "آیا اراده آزاد وجود دارد؟" (Fisher 1983, 78) آیا حرکت خودمختار، قرینهای از آزادی اراده است؟ خلق یک هوش مصنوعی، حتی هوش مصنوعی، توسط انسان این بررسی را ضروری میسازد. اگر ما آزادی اراده انسانها را میپذیریم (یا برعکس)، این امر میتواند برای هوش مصنوعی نیز صادق باشد. (Dülger, 2017, 9) زیرا اگر هوش مصنوعی آزادی اراده نداشته باشد، هرگز نمیتواند به این آزادی دست یابد یا اگر چنین آزادی در انسان وجود نداشته باشد، مفهوم "مسئولیت" باید در یک بُعد متفاوت مورد بحث قرار گیرد. اینکه چگونه میتوانیم هوش مصنوعی را برای هر عملی مسئول بدانیم، به این امر بستگی دارد و در ارتباط با آن، برای نخستین بار بشر قادر خواهد بود – شاید به شکلی الهی - مورد یک "سوژه" طراحی شده توسط خود را که دارای اراده آزاد است یا نیست، مورد بحث قرار دهد. درواقع، این بحث ما را به این سوال میکشاند که آیا میتوان به هوش مصنوعی، و شاید قبل از آن به حیوانات، شخصیت حقوقی اعطا کرد یا نه، و باعث میشود با تردید دوباره به تمایز شخص/مال که ریشه در حقوق رُم دارد بنگریم و حتی ممکن است ما را وادار کند که سیستم حقوقی مدرن را از نو مورد بررسی قرار دهیم .
بدون شک، بحث در مورد هوش مصنوعی و اراده آزاد میتواند درهایی جدید را برای درک بهتر ما از طبیعت انسان بگشاید. علاوه بر این، با پیشرفت علم اعصاب، موضوع وجود آزادی اراده دوباره مطرح شده است (Krausova and Hazan 2013, 98) علم اعصاب، روانشناسی و فلسفه یک موضوع مشترک و مهم انسانی را دارند که توسط تمام نظامهای حقوقی پذیرفته شده است: "اراده آزاد" یا به بیان دیگر "آزادی اراده انسان" که به سادگی میتواند به عنوان توانایی انتخاب و تصمیمگیری و عمل بر اساس آن بدون تأثیر از هر فرآیند علّی (الهی یا فیزیکی) تعریف شود (Fisher 1983, 76).
اما هنگامی که ما درباره اراده هوش مصنوعی بحث میکنیم، ما در تلاش برای ایجاد یک موجود خودمختار مصنوعی اما با فرآیندهای علّی (نرمافزارها، سختافزارها و غیره) هستیم و بدین ترتیب میان ضرورتگرایی علم مبتنی بر علیت و جهان احتمالاتی که آزادی اراده (و شاید مکانیک کوانتومی) مطالبه میکند، باقی میمانیم .
در جریان تاریخ، وجود آزادی اراده با جریانهای تصادفیگرا و ضرورتگرا به چالش کشیده شده است. (Küçüktaşdemir 2018) این رویکردها با پیشرفتهای علم اعصاب دوباره شعلهور شدهاند. بازاندیشی و بازسازی این بحثها در مورد هوش مصنوعی آفریده انسان میتواند چشماندازهای جدیدی را برای ما به ارمغان آورد و شعله اکسیری را که هنوز در حال اختلاط است، برافروزد.
در واقع، با گذشت سالیان، پیشرفتها در زمینههایی مانند علوم اعصاب، روانشناسی و علوم اعصاب شناختی به طور فزایندهای به دیدگاههایی که آزادی اراده را به چالش میکشند، اعتبار بیشتری بخشیده است. (Eagleman 2017, 3) امروز، با کمک علم میتوانیم به راحتی بگوییم که ذهن از ارتباطات الکتروشیمیایی بین نورونها تشکیل شده است، اگرچه هنوز قادر به تعریف آن نیستیم. با این حال، فناوری در حال پیشرفت به ما این امکان را میدهد که روابط علت و معلولی در فرآیندهای ذهنی را، گرچه تا حدودی، مشاهده کنیم. از طرف دیگر، تعیین رفتار انسان به طور مطلق هنوز غیرممکن است. زیرا انسان تنها یک موجود زنده عمل کننده با لوب پیشانی نیست؛ غرایز و هورمونهایی که احساسات را شکل میدهند و ناخودآگاه همچنان اصلیترین هدایتکننده اعمال او هستند. هوش مصنوعی اما، دستکم با فناوری امروز، از الگوریتمها، تراشههای سیلیکونی ساخته شده است و از نظر فیزیکی بیشتر شبیه یک رباتی تحت کنترل یک رایانه تا یک انسان است. با این حال، شاید در آیندهای دور، مدلسازی احساسات و ناخودآگاه با الگوریتمها امکانپذیر باشد.
همانطور که قبلاً اشاره کردیم، برای اینکه یک موجود زنده به عنوان یک موجود هوشمند در نظر گرفته شود، باید دارای پنج ویژگی باشد. با آنچه فناوری امروز در اختیار ما قرار میدهد، میتوان به راحتی استدلال کرد که در آینده دور، هوش مصنوعی میتواند به این ویژگیها دست یابد و در واقع، حتی در سطوح ابتدایی، بسیاری از هوشهای مصنوعی حداقل از نظر تعریف (به جز خودآگاهی) دارای اکثر این تواناییها هستند. (Hallevy, 2015, 176) با این حال، تا زمانی که دانشمندان در آینده دور ثابت نکنند که هوش مصنوعی ویژگیهای "شناختی" مشابه انسانها را از خود بروز میدهد، شناسایی آن به عنوان یک شخصیت حقوقی مانند انسانها امکانپذیر نیست
حتی اگر این دیدگاه در آینده بهطور کامل اثبات شود، هوش مصنوعی ضعیف که از طریق سختافزار و نرمافزارهای طراحی شده توسط ما کار میکند، با تمام فرآیندهای علّی که آن را تشکیل میدهند، قابل ردیابی، و بنابراین کاملاً قابل پیشبینی است و اعمال آن قابل توضیح کامل است. بنابراین صحبت از آزادی اراده برای هوش مصنوعی ضعیف امکانپذیر نیست. به نظر ما، تنها میتوانیم از یک خطای نرمافزاری، یا یک اشکال سختافزاری صحبت کنیم. خلاصه اینکه، برای اولین هوشهای مصنوعی، عنصر سومی مانند آزادی اراده، جدای از سختافزار و نرمافزار آنها وجود نخواهد داشت. (Balkin 1998, 52) بدون شک، هنگامی که هوش مصنوعی پیشرفت میکند، میتواند در برنامه و ساختار فیزیکی خود مداخله کند و خود را بازآفرینی کند. این موضوع نیز به آن یک عدم قابلیت پیشبینی اضافی خواهد داد. از سوی دیگر، میتوان تصور کرد که رمزگذاری نرمافزار خود و عدم دسترسی به آن نیز امکانپذیر است. این عدم قابلیت پیشبینی (زیرا ما نمیتوانیم پیشبینی کنیم) ما را با توهم احتمالات روبرو میکند و شاید در این نقطه باشد که ما ناچار شویم از آزادی اراده آن صحبت کنیم.
هنگامی که یک هوش مصنوعی بر نرمافزار (الگوریتمهای) خود مداخله کند و از نویسندگان نرمافزار خود مستقل شود، و سختافزار خود را بسازد، میتواند عدم قابلیت پیشبینی کسب کند. به ویژه زمانی که هوش مصنوعی به خودآگاهی و آگاهی از رفتارهایش برسد، میتوان فکر کرد که او میتواند برای انتخابهایش مسئول باشد. تمام این موارد برای هوش مصنوعی قوی آینده طبیعی است. مسئله اصلی در اینجا، باز هم به ترجیحات اخلاقی هوش مصنوعی بستگی دارد. آیا مانند ما میتواند تفاوت بین خوبی و بدی را (هرچند نسبی) درک کند؟ حتی در این شرایط، میتوان در نظر گرفت که خالقان هوش مصنوعی، یعنی برنامهنویسان و مهندسان میتوانند محدودیتهای ساختاری مختلفی را برای آن در نظر بگیرند. بنابراین، حتی اگر یک هوش مصنوعی خودتنظیم اختراع شود، بحث از مسئولیت آنها نیز احتمالاً اشتباه نخواهد بود.
باید مسئله مسئولیت کیفری هوش مصنوعی را بر اساس مراحل مختلف مورد بررسی قرار داد. در دوران نوپایی فناوری هوش مصنوعی، اساساً امکان بحث از مسئولیت کیفری مستقیم هوش مصنوعی وجود ندارد. در این مرحله، میتوان اصول حقوق مدنی، موارد مسئولیت مدنی بدون تقصیر و مسئولیت محصول در حقوق خصوصی را مورد بحث قرار داد. (Bozkurt-Yüksel 2019, 96) در این مرحله، تنبیهات حقوق خصوصی به تنهایی میتواند به راحتی هدف مورد نظر را برآورده کند. در آینده نزدیک، چون هوش مصنوعی صرفاً بر اساس برنامهنویسی، دستورات تولیدکننده و/یا مالک خود را اجرا میکند، در نتیجه فقط یک ابزار خودمختار خواهد بود، اگر خطایی در نرمافزار وجود داشته باشد، برنامهنویسان و اگر خطایی وجود نداشته باشد، فردی که دستور را به هوش مصنوعی داده است، مسئولیت کیفری خواهد داشت. به عنوان مثال، در زمان نزدیک، یکی از وسایل نقلیه هوشمند اوبر14 در حین انجام فعالیت حمل و نقل به یک زن عابر پیاده برخورد کرد و منجر به مرگ او شد.Gless/Silverman/Weigend, 2016,) (424
شاید انسان نیز بتواند در چارچوب یک دوگانگی سختافزار (بیولوژی) و نرمافزار (ذهن) متقابل در نظر گرفته شود. باید با تأکید اشاره کرد که ماهیت ذهن، چگونگی پیدایش آن و ناتوانی در تعریف تجربیات فردی به صورت عینی موضوع فلسفه ذهن است و هنوز موضوعات حل نشدهای هستند. (Balkin 1998, 52)
بدون شک، حتی اگر هوش مصنوعی پیشرفت کند و در برنامه و ساختار فیزیکی خود مداخله کند و خود را بازآفرینی نماید، میتواند به آن عدم قابلیت پیشبینی اضافی ببخشد. (Balkin 1998, 52) از سوی دیگر، میتوان تصور کرد که رمزگذاری نرمافزار و محدود کردن دسترسی به آن نیز امکانپذیر باشد. این عدم قابلیت پیشبینی (از آنجایی که ما نمیتوانیم آن را پیشبینی کنیم) ما را با توهم احتمالات روبرو میسازد و شاید در این نقطه باشد که ما ناچار شویم از آزادی اراده آن سخن بگوییم.
هر قدر یک هوش مصنوعی بیشتر در نرمافزار (الگوریتمها) خود مداخله کند و از کسانی که آن را نوشتهاند مستقل شود و بیشتر سختافزار خود را بسازد، ممکن است غیرقابل پیشبینی شود. به ویژه اگر هوش مصنوعی به آگاهی از وجود خود و آگاهی از رفتارهایش دست یابد، میتوان تصور کرد که برای انتخابهایش مسئول باشد. تمامی این موارد برای هوش مصنوعی قوی که ممکن است در آینده ظهور کند، طبیعی است. مسئله اصلی در اینجا، دوباره به ترجیحات اخلاقی هوش مصنوعی بستگی دارد. آیا مانند ما میتواند تفاوت بین خوبی و بدی را (هرچند نسبی) درک کند؟ حتی در این شرایط، میتوان در نظر گرفت که خالقان هوش مصنوعی، یعنی برنامهنویسان و مهندسان میتوانند محدودیتهای ساختاری مختلفی را برای آن در نظر بگیرند. بنابراین، حتی اگر یک هوش مصنوعی خودتنظیم اختراع شود، احتمالاً اشتباه نخواهد بود که از مسئولیت آنها نیز سخن بگوییم.
باید مسئله مسئولیت کیفری هوش مصنوعی را بر اساس مراحل مختلف مورد بررسی قرار داد. در مراحل نوپایی فناوری هوش مصنوعی، اصولاً امکان بحث از مسئولیت کیفری مستقیم هوش مصنوعی وجود ندارد. در این مرحله، میتوان اصول حقوق خسارت، موارد مسئولیت مدنی بدون تقصیر و مسئولیت محصول در حقوق خصوصی را مورد بحث قرار داد. (Bozkurt-Yüksel 2019, 96) در این مرحله، تنبیهات حقوق خصوصی به تنهایی میتواند به راحتی هدف مورد نظر را محقق کند.
در چنین موقعیتی، باید بررسی شود که چرا هوش مصنوعی ترمز نکرده است؛ آیا این ناشی از یک نقص نرمافزاری بوده یا اینکه زن ناگهان از فاصلهای که خودرو قادر به توقف نبوده، وارد جاده شده است. بنابراین، در مرحله کنونی و آینده نزدیک توسعه هوش مصنوعی، اولین گزینههای احتمالی برای مسئولیت کیفری عبارتند از: برنامهنویس، تولیدکننده و کاربر (Pagallo, 2018, 69).
در این زمینه، هرچه هوش مصنوعی در زمینههای بیشتری خودمختار شود، میتوان انتظار داشت که برنامهنویسان آن از مسئولیت سهلانگارانه خود در قبال جرایم ارتکابی توسط هوش مصنوعی رها شوند، تا زمانی که الگوریتمها به پیچیدگی و خودانگیختگی غیرقابل پیشبینی15 برسند. البته در این حالت، برنامهنویسان تنها در صورتی مسئول جرایم سهلانگارانه خواهند بود که این موارد در قانون جزایی پیشبینی شده باشند. اگرچه این ادعا ممکن است به راحتی قابل قبول باشد، اما پیچیدگی و سازماندهی موجود در ساخت هوش مصنوعی و رباتهای حامل آن ، یافتن اینکه چه کسانی از تعهدات مراقبت و دقت تخطی کردهاند را دشوار میسازد. (Karnow, 2013, 182) در این شرایط، ممکن است نیاز به مقررات خاص در مورد مسئولیت کیفری سازمانهای تولیدکننده (احتماالً شرکتها) وجود داشته باشد و این شرایط بحثهای مربوط به اینکه آیا اشخاص حقوقی میتوانند مسئولیت کیفری داشته باشند یا خیر را دوباره برانگیزد.
در همین راستا، یکی دیگر از چالشهای مطرح شده توسط هوش مصنوعی این است که اقدامات ما برای ارزیابی آن، ما را از دنیای مادی که در آن قرار داریم به دنیای دیجیتالی که در آن روابط علیت غیرقابل درک حکمرانی میکنند، منتقل میکند. این موضوع به ویژه با گسترش رایانههای کوانتومی بیشتر احساس خواهد شد. در واقع، مسئله مسئولیت کیفری هوش مصنوعی همچنین یک مسئله ارتباط علیت است. راه حل این مشکل، داشتن دانش کامل از نحوه کارکرد نرمافزار هوش مصنوعی و مشاهده روشن چگونگی عملکرد نرمافزار را میطلبد.
موضوع دیگری که باید تحت عنوان هوش مصنوعی و مسئولیت کیفری مورد بررسی قرار گیرد، مربوط به جرایم مشترک است. در مواردی که هوش مصنوعی ضعیف در اقدامات انسانی مشارکت دارد یا برعکس، با فرض اینکه آنها تحت کنترل انسانها هستند (اگر قوانین سه گانه ربات اعمال شود) و با توجه به اینکه آنها به هیچ وجه توانایی تقصیر ندارند، بعید به نظر میرسد که ما آنها را به دلیل شرکت در جرم مسئول بدانیم. اما این ادعا نمیتواند یک قضاوت قطعی برای آینده نزدیک باشد و نباید فراموش کرد که هوش مصنوعی به تدریج در برابر هر چیزی خودمختارتر میشود. مشخص نیست که در مراحل پیشرفته هوش مصنوعی، با چه "سوژهای" روبرو خواهیم شد. به نظر ما، هرچه هوش مصنوعی قویتر شود، امکان صحبت از یک پیشبرد مشترک تعرض بین انسان و هوش مصنوعی وجود دارد. هرچه تواناییهای ذهنی هوش مصنوعی به انسان نزدیکتر شده و قویتر گردد، میتوانیم تصور کنیم که مسئولیت مستقیم هوش مصنوعی مطرح خواهد شد و لازم باشد که آن را مجازات کنیم. در این مرحله، مسأله اصلی نه تنها این است که چگونه میتوانیم موجودی را با فرایندها و ساختار ذهنی متفاوت (شاید برتر) از ما محاکمه کنیم (البته اگر این شانس را به ما بدهد)، بلکه این است که چگونه میتوانیم آن را مجازات کنیم. هیچ یک از روشهای مجازات امروزی نمیتواند کارکردها و اهداف خود را در مواجهه با هوش مصنوعی نشان دهد. ما باید روشهای متفاوتی را برای موجودی غیرانسانی دنبال کنیم. بدون شک این روشها در نحوه ظهور هوش مصنوعی، یعنی در ویژگیهای ساختاری آن نهفته است. به نظر ما، در آینده دور، روزی که به ناچار مسئولیت کیفری هوش مصنوعی مطرح شود، شاید مناسب باشد که از انتها شروع کنیم و بحث کنیم که چه "تدابیری" میتواند در مورد هوش مصنوعی اتخاذ شود. ما عمداً از واژه "تدبیر" استفاده کردیم، زیرا به اعتقاد ما، مجازات ممکن است یک مفهوم ویژه انسان باشد، برای موجودی دارای غرایز، هورمونها و احساسات. در این حالت، به نظر ما بیشتر از مجازات هوش مصنوعی، باید صحبت از بررسی آن توسط متخصصان فنی (نه قضات) و اعمال برخی تدابیر بر روی آن که توسط همین افراد تصمیم گرفته میشود، کرد.
یکی از این تدابیر میتواند دستکاری الگوریتم هوش مصنوعی باشد در صورت تحقق چنین شرایطی، باید در نظر داشت که اقدامات غیرقانونی توسط هوش مصنوعی به دو دسته تقسیم میشوند: اقداماتی که از عملکرد منطقی و پیشبینی شده هوش مصنوعی ناشی میشوند، و اقداماتی که ناشی از عملکردهای غیرمنتظره و تصادفی هستند. در مورد اول، که منطق خاصی را دنبال میکند، میتوان گفت که برنامهنویسان یا سازندگان هوش مصنوعی مسئول هستند، زیرا آنها الگوریتمهایی را طراحی کردهاند که به چنین نتایجی منجر میشوند. اما در مورد دوم، جایی که هوش مصنوعی رفتارهای غیرمنتظره و تصادفی از خود نشان میدهد، نمیتوان برنامهنویسان یا سازندگان را مسئول دانست، زیرا آنها قادر به پیشبینی و کنترل چنین رفتارهایی نیستند.
در چنین شرایطی، شاید بتوان گفت که خود هوش مصنوعی مسئول است، اما این مسئولیت چگونه باید اعمال شود؟ آیا باید مانند انسانها مجازات شوند؟ همانطور که قبلاً اشاره شد، مجازاتهای سنتی برای هوش مصنوعی بیمعنی هستند. بنابراین شاید بهتر باشد تدابیری مانند تغییر در الگوریتم، محدود کردن دسترسیها یا حتی غیرفعال کردن موقت یا دائم هوش مصنوعی در نظر گرفته شود.
این موضوع همچنین مسائل اخلاقی جدیدی را مطرح میکند. آیا غیرفعال کردن یک هوش مصنوعی پیچیده که احساسات و آگاهی دارد، از لحاظ اخلاقی قابل قبول است؟ چه کسی باید تصمیم بگیرد که کدام تدابیر باید در مورد یک هوش مصنوعی خاطی اعمال شود؟ این سوالات نشان میدهد که ظهور هوشهای مصنوعی قوی، نیازمند بازنگری عمیق در مفاهیم سنتی مسئولیت و مجازات است.
قوانین تجارت الکترونیکی در ایران تاکنون به طور مستقیم به مسئله مسئولیت کیفری هوش مصنوعی نپرداخته است. با این حال، میتوان برخی مفاد قانونی را در این زمینه مرتبط دانست.
در قانون تجارت الکترونیکی مصوب 1382، هرگونه نقض حقوق دیگران در فضای مجازی ممنوع شده و مرتکبین مشمول مجازات قانونی میشوند. اگرچه مستقیماً به هوش مصنوعی اشاره نشده، اما در صورت ارتکاب جرم توسط هوش مصنوعی در تجارت الکترونیکی، این مفاد قابل اعمال خواهد بود.
در آیین نامه اجرایی ماده 62 همین قانون مصوب 1389، صاحبان کسب و کارهای الکترونیکی موظف شده اند روشهای امن را برای انجام تراکنشها فراهم کنند. میتوان استدلال کرد که به کارگیری هوش مصنوعی در تراکنشها نیز باید بر اساس ضوابط امنیتی صورت گیرد و صاحبان کسب و کار مسئول تأمین امنیت هوش مصنوعی هستند.
علاوه بر این، در صورت ورود خسارت توسط هوش مصنوعی در تجارت الکترونیکی، مفاد مربوط به مسئولیت مدنی در قانون مدنی و قانون مسئولیت مدنی قابل استناد خواهد بود و مالک یا متصدی هوش مصنوعی باید خسارات را جبران کند.
با این وجود، در خصوص مسئله مسئولیت کیفری مستقیم هوش مصنوعی در حوزه تجارت الکترونیکی، قوانین جامع و روشنی در نظام حقوقی کشور وجود ندارد. بنابراین نیازمند تصویب قوانین خاص یا اصلاح و توسعه قوانین موجود در این زمینه هستیم تا مشخص شود چه کسانی در صورت ارتکاب جرم توسط هوش مصنوعی مسئول خواهند بود و نحوه رسیدگی و مجازات آن چگونه باید باشد. قانون جرائم رایانه ای مصوب 1388 ایران، گامی مهم در جهت پوشش جرائم سایبری و رایانه ای بود اما با توجه به پیشرفتهای سریع فناوری هوش مصنوعی، این قانون دچار کاستیها و خلأهای قانونی مهمی شده است.
بر اساس قانون موجود، جرائمی مانند نفوذ غیرمجاز به داده ها، اختلال در سیستم ها، جعل و دستکاری دادهها که توسط هوش مصنوعی صورت گیرد، قابل پیگرد است. اما مساله اصلی، تعیین مسئول اصلی و مقصر در چنین جرائمی است.
آیا خود هوش مصنوعی به دلیل داشتن خودمختاری و توانایی یادگیری، مسئول است؟ یا برنامه نویسان و تولیدکنندگان آن به دلیل طراحی و آموزش نامناسب، مقصر هستند؟ یا کاربران و صاحبان این سیستمها باید پاسخگو باشند؟
بر اساس مباحث مطرح شده در متن، در مراحل ابتدایی توسعه هوش مصنوعی، مسئولیت کیفری مستقیم برای این سیستمها قابل قبول نیست. چراکه فاقد آگاهی و قدرت قضاوت اخلاقی کامل هستند و صرفاً بر اساس برنامه نویسی و آموزش دیده، عمل میکنند. بنابراین در این مرحله، سازندگان، برنامه نویسان و کاربران باید مسئولیت جرائم ارتکابی را بپذیرند.
اما با پیشرفت هوش مصنوعی و امکان کسب خودآگاهی، یادگیری مستقل و تصمیم گیری اخلاقی، دیگر نمی توان آن را صرفاً یک ابزار محض دانست. در این شرایط، پذیرش مسئولیت کیفری مستقیم برای هوش مصنوعی قابل بحث خواهد بود.
این موضوع، ایجاد سوالات و چالشهای جدید حقوقی را در پی دارد: اولا آیا میتوان انتظار داشت هوش مصنوعی دارای ارزشهای اخلاقی و قضاوت انسانی نظیر انسان باشد؟ آیا شیوههای مجازات کیفری کنونی برای این موجودات غیرانسانی قابل اعمال است؟ چه تدابیر جایگزینی میتواند برای مجازات آنها در نظر گرفته شود؟از طرف دیگر، با پیچیده تر شدن هوش مصنوعی، ردیابی علل و انگیزه اقدامات آن برای انسان بسیار دشوار میگردد. آیا میتوان اساساً برای رفتارهای غیرقابل پیش بینی آن، مسئولیتی را متوجه سازندگان و کاربرانش دانست؟
در قوانین جرائم رایانهای ایران، مسئولیت مستقیم کیفری یا حقوقی برای هوش مصنوعی به طور صریح بیان نشده است. اما میتوان مواردی را از این قوانین استنباط کرد که به مسئولیت افرادی که در طراحی، ایجاد و استفاده از هوش مصنوعی دخیل هستند، مربوط میشود.
در قانون جرائم رایانهای مصوب 1388 ایران، موارد زیر میتواند مرتبط با مسئولیت هوش مصنوعی باشد:
1. ماده 16 - جرم شناخته شدن ورود غیرمجاز به دادهها و سیستمهای رایانهای میتواند برای سازندگان و کاربران هوش مصنوعی که موجب ورود غیرمجاز شوند، اعمال شود.
2. ماده 19 - جرم انتشار دادههای غیرمجاز میتواند در مورد هوش مصنوعی که بدون اجازه دادههایی را منتشر کند، برای طراحان و کاربران آن اعمال شود.
3. ماده 24 - محکومیت فروش یا اجاره برنامههای مخرب میتواند برای سازندگان هوش مصنوعی خطرناک یا مخرب اعمال شود.
4. ماده 25 - جرم شناخته شدن نقض حریم خصوصی افراد از طریق سیستمهای رایانهای میتواند برای هوش مصنوعی که موجب نقض حریم خصوصی شود، برای طراحان و کاربران آن اعمال شود.
لازم به ذکر است که در حال حاضر قوانین ایران در این زمینه کامل نیست و با توسعه هوش مصنوعی ممکن است نیاز به بازنگری و تکمیل قوانین مربوطه احساس شود. اما بر اساس قوانین فعلی، مسئولیت نهایی متوجه افرادی است که در طراحی، ساخت و استفاده از هوش مصنوعی نقش دارند.
این مسائل نشان میدهد که قانون فعلی جرائم رایانه ای ایران، با چالشهای جدی در خصوص تعیین مصادیق و مسئولیت کیفری در حوزه هوش مصنوعی مواجه است. لذا نیازمند بازنگری اساسی و الحاق قوانین و مقررات مدون و روشن در این حوزه است.
تدوین چارچوبهای حقوقی جدید برای مسئولیت کیفری هوش مصنوعی، همکاری نزدیک حقوقدانان، فیلسوفان اخلاق و متخصصان این فناوری را میطلبد. تنها از این طریق است که میتوان قوانینی متناسب با شرایط جدید و حفاظت از جامعه در برابر خطرات بالقوه این فناوری را وضع نمود
نتیجه
هنگامی که در حال ارزیابی توسعه و خطرات بالقوه هوش مصنوعی هستیم و به یاد میآوریم که وارد دنیای دیجیتال شدهایم که تنها از دادهها تشکیل شده است، شاید بتوانیم نتیجه بگیریم که هوش مصنوعی هرگز مانند انسان تصمیمگیری نخواهد کرد. شاید هرگز هورمونها، احساسات لحظهای، غرایز و انگیزههای انسانی نداشته باشد و همیشه با انسان متفاوت باشد. حداقل همانطور که وجود ما به کدهای ژنتیکی ما وابسته است، وجود آن نیز به نرمافزارش وابسته خواهد بود. بنابراین، خطرات بالقوهای که هوش مصنوعی ممکن است ایجاد کند، مستقیماً با نرمافزار و امنیت دادههای آن مرتبط است. قواعد هوش مصنوعی توسط نرمافزار خودش تعیین میشود. بنابراین لازم است از زاویه دیگری نیز به این موضوع نگاه کنیم.
در این راستا، شاید بهترین راهکار برای حداقل در آینده نزدیک، تمرکز بر امنیت سایبری و محافظت از سیستمهای هوش مصنوعی در برابر حملات باشد. برای مثال، از آنجایی که هوش مصنوعی وابسته به داده است، اگر دادههای ورودی آن آلوده یا مخدوش شود، ممکن است رفتارهای پیشبینی نشده و مضری از خود نشان دهد. بنابراین، محافظت از جریان دادهها و سیستمهای پردازش دادهها از اهمیت ویژهای برخوردار است.
از سوی دیگر، شفافیت الگوریتمها و توانایی ردیابی تصمیمات هوش مصنوعی نیز حائز اهمیت است. اگر نتوانیم دریابیم که چرا یک هوش مصنوعی تصمیم خاصی گرفته است، دشوار خواهد بود که مسئولیت آن را تعیین کنیم. بنابراین، اصول شفافیت، پاسخگویی و قابلیت تفسیر باید در توسعه هوش مصنوعی رعایت شود.
علاوه بر این، آموزش و آگاهی عمومی در مورد هوش مصنوعی نیز ضروری است. افراد باید از چگونگی کار هوشهای مصنوعی و محدودیتها و خطرات بالقوه آنها آگاه باشند تا بتوانند به درستی با آنها تعامل کنند و انتظارات واقعبینانهای داشته باشند.
در نهایت، چارچوبهای قانونی و مقرراتی برای هوش مصنوعی نیاز است. این چارچوبها باید مسائلی مانند مسئولیت، حریم خصوصی، امنیت و استانداردهای اخلاقی را پوشش دهند. البته باید توجه داشت که این چارچوبها نباید مانعی برای نوآوری و پیشرفت فناوری باشند، بلکه باید موازنهای میان حمایت و تنظیمگری ایجاد کنند.
با پیشرفت فناوری هوش مصنوعی، نیاز به سیاستگذاریها و مقرراتگذاریهای بیشتری برای مدیریت چالشهای حقوقی و اخلاقی ناشی از آن احساس خواهد شد. این امر مستلزم همکاری بینرشتهای میان دانشمندان، مهندسان، حقوقدانان، فیلسوفان و سیاستگذاران است تا راهحلهای جامع و پایداری برای این چالشهای نوظهور ارائه شود
همانطور که محیط اجتماعی که فرد در آن پرورش یافته، به اندازه ویژگیهای ژنتیکی او برای آینده زندگیاش مهم است، دادههایی که هوش مصنوعی پردازش میکند و محیطی که در آن استفاده میشود نیز به اندازه برنامهاش اهمیت دارد. بنابراین باید مسئله را از دو بعد طراحی هوش مصنوعی و محیطی که در آن استفاده میشود، مورد بررسی قرار داد. هر دو بعد بهویژه برای هوش ضعیف در زمان حال، آینده نزدیک و حتی میانمدت صادق است. بنابراین، در مورد هوش مصنوعی ضعیف، میتوان گفت که مقررات مربوط به مسئولیت محصول و مسئولیت قصور از سوی تولیدکنندگان و کاربران هوش مصنوعی تا حد زیادی میتواند نیازهای امروزی را برآورده کند. اینکه این افراد عمدی یا سهلانگار رفتار کردهاند، براساس نرمافزار هوش مصنوعی، محیطی که در آن استفاده میشود یا دادههایی که به آن ارائه شده، تعیین خواهد شد. بنابراین ممکن است مالک، کاربر، فروشنده، طراح سختافزار، برنامهنویس، هکر برنامه و غیره را به عنوان مرتکب مسئول بدانیم.
در آینده دور، وقتی هوش مصنوعی واقعاً خودمختار شد، شاید لازم باشد تا مفهوم جدیدی از مسئولیت ایجاد شود که از لحاظ فلسفی و حقوقی بسیار پیچیده خواهد بود با این حال، در حال حاضر چنین مسئلهای پیش نیامده است. در نتیجه، تا زمانی که هوش مصنوعی به خودمختاری کامل دست نیافته، باید با تکیه بر قوانین موجود، مسئولیت آن را بر عهده انسانها قرار دهیم. بنابراین، الزام بر آن است که قوانین و مقررات سختگیرانهای برای تهیه نرمافزار هوش مصنوعی وضع شود. با این حال، مسئله مسئولیت در قبال برخی پیامدهای پاتولوژیک پیشبینیناپذیر ناشی از یکپارچگی درونی نرمافزار، قابل بحث است. به همین دلیل، همانطور که قبلاً تأکید کردیم، هوش مصنوعی باید قبل از فعال شدن، به دقت بررسی، کنترل و آزمایش شود. از طرف دیگر، با در نظر گرفتن جهان دیجیتالی که هوش مصنوعی در آن وجود دارد، باید راهها و روشهای جدیدی برای اثبات در این گونه موارد پیدا شود.
به طور خلاصه، به نظر میرسد در حال حاضر هنوز زود است که در مورد مسئولیت کیفری هوش مصنوعی قضاوت کنیم. با این حال، با توجه به پیشرفتهای سریع در این حوزه، بررسی رویکردهای مختلف حقوقی برای برخورد با چنین موقعیتهایی در آینده ضروری به نظر میرسد. در ابتدا، شاید مقایسه با اشخاص حقوقی راهگشا باشد، اما احتمالاً در نهایت، به سیستم جدید و ویژهای برای تعریف هویت و مسئولیت هوش مصنوعی نیاز خواهیم داشت.
هوش مصنوعی پتانسیل بسیار بزرگی دارد. در زمان حاضر، استفاده از وسایل نقلیه مسلح یا مجهز به هوش مصنوعی در جنگها بسیار نزدیک است. علیرغم این قدرت بالقوه بسیار خطرناک، نباید از "موجودی" هوشمند و باهوشی که در آینده دور خودمان تولید میکنیم، بترسیم. ما باید هوش مصنوعی را به عنوان یک نتیجه و ادامه تکامل انسانی بپذیریم. اگر هوش مصنوعی به سطحی از پیشرفت برسد که از انسان فراتر رود، موضوعات مورد بحث در این فرایند ممکن است معکوس شوند، یعنی حقوق بشر در همان سطح با حقوق حیوانات توسط هوش مصنوعی مطرح شوند. از آنجا که ما قادر به پیشبینی و تصور آن سطح نیستیم، تمام این ورزشهای فکری انجام شده برای یک هوش مصنوعی در سطوح باالتر ممکن است بسیار بیاهمیت باشد. انسانی که طبیعت را نابود میکند، ممکن است به عنوان تهدید اصلی درک شود و شاید ماشینا سیپنس بزرگترین همراه ما نباشد بلکه قیامت ما باشد. تنها نقطه اتکا و امید ما از آنجا ناشی میشود که ما آفریننده آن هستیم. شاید همه چیز به این بستگی دارد که چگونه آن را میآفرینیم و چه چیزهایی به آن میآموزیم.
بشر، هنگام آموزش به فرزند تازه متولد شده خود، یا چشمان درخشان حیوان وحشی پنهان شده در گوشههای تاریک وجود خود را خواهد دید یا او را کاملاً از نقایص و اشتباهات خود جدا خواهد کرد.
منابع
1. Asaro, P. (2012). On banning autonomous weapon systems: Human rights, automation, and the dehumanization of lethal decision making. International Review of the Red Cross, 94(886).
2. Asimov, I. (2016). Ben, robot (E. Odabaş, Çev.) İstanbul: Yayınevi.
3. Balkin, J. (2015). The path of robotics law. California Law Review, 6.
4. Bozkurt, G. (1981). Eski hukuk sistemlerinde kölelik. Ankara Üniversitesi Hukuk Fakültesi Dergisi.
5. Buckland, W.W. (1908). The Roman law of slavery. Cambridge: Yayınevi.
6. Demirbaş, T. (2009). Ceza hukuku genel hükümler. Ankara: Yayınevi.
7. Dülger, M. (2017). Bir hukuk-kurgu denemesi: Yapay zekâlı varlığın hukuki sorumluluğu (Olabilir mi?). Hukuk ve Ötesi Dergisi.
8. Eagleman, D. (2017). İncognito. İstanbul: Yayınevi.
9. Ersoy, Ç. (2018). Robotlar, yapay zekâ ve hukuk. İstanbul: Yayınevi.
10. Fisher, M. (1983). A note on free will and artificial intelligence. Philosophia.
11. Gless, S., Silverman, E., & Weigend, T. (2016). If robots cause harm, who is to blame? Self-driving cars and criminal liability. New Criminal Law Review, 19(3).
12. Goodman, M. (2016). Geleceğin suçları (Çev. Yayınevi). İstanbul: Timaş.
13. Hallevy, G. (2010). The criminal liability of artificial intelligence entities - From science fiction to legal social control. Akron Intellectual Property Journal.
14. Jones, P. (2016). Geldim gördüm yendim – Romalılar hakkında bilmek isteyeceğiniz her şey (F. Sezer, Çev.). İstanbul: Yayınevi.
15. Karadeniz Çelebican, Ö. (2016). Roma hukuku. Ankara: Yayınevi.
16. Karnow, C. (1996). Liability for distributed artificial intelligences. Berkeley Technology Law Journal, 11(1).
17. Krausova, A., & Hazan, H. (2013). Creating free will in artificial intelligence. Beyond AI: Artificial Golem Intelligence International Conference, Pilsen.
18. Kurzweil, R. (2018). İnsanlık 2.0. İstanbul: Yayınevi.
19. Küçük, E. (2007). XII. Yüzyıl Rönesansı ve 'Yeniden Doğan' Roma'yı günümüze bağlayan son halka: Pandekt hukuku. Ankara Üniversitesi Hukuk Fakültesi Dergisi.
20. Küçüktaşdemir, Ö. (2018). Nörohukuk ve kusur (isnat yeteneğine) ilişkin yeni yaklaşımlar. IV. Uluslararası Sağlık Hukuku Kongresi, Özyeğin Üniversitesi Hukuk Fakültesi, Adli Bilimciler Derneği, Ankara.
21. Pagallo, U. (2013). The laws of robotics: Crimes, contracts, and torts. Dordrecht: Yayınevi.
22. Richards, N.M., & Smart, D.W. (2012). How should the law think about robots? We Robot 2012, Inaugural Conference on Legal and Policy Issues Relating to Robotics.
23. Say, C. (2019). 50 soruda yapay zekâ. İstanbul: Bilim ve Gelecek
24. Türkoğlu-Özdemir, G. (2005). Roma hukuku'nda actio de peculio. Dokuz Eylül Üniversitesi Hukuk Fakültesi Dergisi, 7(2).
25. Umur, Z. (1999). Roma hukuku ders notları. İstanbul: Yayınevi.
26. Umur, Z. (1975). Roma hukuku lügatı. İstanbul: Yayınevi.
27. Villey, M. (2010). Başlık (B. Tahiroğlu, Çev.). İstanbul: Yayınevi.
28. Visky, K. (1974). Roma hukuku'nda kölelik ve serbest meslekler (B. Tahiroğlu, Çev.). İstanbul Üniversitesi Hukuk Fakültesi Dergisi.
[1] دانشجوی دکتری حقوق کیفری و جرم شناسی، واحد لاهیجان، دانشگاه آزاد اسلامی، لاهیجان، ایران
Email: mohadesehghavamipour@gmail.com
[2] استادیار گروه حقوق، واحد لاهیجان، دانشگاه آزاد اسلامی، لاهیجان، ایران (نویسنده مسئول):
Email: amirreza.mahmodi@gmail.com
[3] New Hampshire
[4] John McCarthy
[5] Microprocessor
[6] Karel Čapek
[7] Richards and Smart
[8] Elon Musk
[9] Stephen Hawking
[10] برخی ویدیوهای شرکت Boston Dynamics که در رسانه های اجتماعی منتشر شده است، نمونه های مهمی در این زمینه هستند. در یکی از این ویدیوها، یک ربات طراحی شده به شکل سگ توسط انسان ها لگد مال می شود و می بینیم که برخی از افرادی که در این ویدیو نظر میدهند، حتی اگر ربات باشد، از تماشای این ماشین در وضعیت ناتوان خوششان نمیآید، اما برخی دیگر استدلال می کنند که چون ربات قادر به احساس درد نیست، این لگدها هیچ معنایی ندارد. اما زمانی که ماشین هایی با شکل انسان مورد خشونت قرار می گیرند، بحث ها بسیار شدیدتر می شود. ما فکر می کنیم که حتی اگر این خشونت به یک موجود زنده اعمال نشده باشد، اما با توجه به نمونه بد آن (به ویژه اگر کودکان درگیر باشند)، حداقل همانطور که در حقوق روم بود، محدودیت هایی بر چنین رفتارهایی برای این ماشین های هوشمند اعمال شود بهتر است.
[11] actus reus
[12] mens rea
[13] moral self-determination
[14] Uber
[15] randomness