خلاصة:
رُباتهای قاتل یا سامانههای تسلیحاتی خودآیین (AWS) از نمونههای بارز کاربست هوش مصنوعی هستند، به نحوی که قابلیتها و نگرانیها دربارۀ گسترش کاربست هوش مصنوعی در حوزههای مختلف را بهخوبی نشان میدهند. طبیعتاً این موضوع واکنشهای بسیاری را برانگیخته است. این سامانهها از هوش مصنوعی در عملکرد اصلی خود استفاده میکنند، یعنی در انتخاب هدف و اقدام دربارهٔ او. طی سالهای اخیر این بحث از حیث نظری در عرصه اخلاق، حقوق و سیاست اهمیت داشته است، با این نگاه که اگر چنین سلاحهایی در کار باشند باید چه موضعی دربارهٔ آنها (در سطح توسعه، ساخت و استفاده) اتخاذ کرد؟ گرچه این مسئله فارغ از امکان یا عدم امکان چنین سلاحهایی مهم است، پیشرفتهای تکنولوژیک نیز به چنین ایدئالی نزدیک شده است و اهمیت مسئله را دوچندان کردهاند. در این نوشته به استدلالهایی اخلاقی له و علیه این سامانهها میپردازم. به نظر نمیرسد هیچیک از این استدلالها برای اتخاذ موضع در این باره کافی باشند. بنابراین، یا باید استدلالهای دیگری را در این باره جستوجو کرد، یا این وضع را دال بر نتیجهای کلیتر دربارهٔ چارچوب این بحث دانست که نظریهٔ جنگ عادلانه است. در ضمن این بررسی، بعضی از ابعاد اخلاقاً مهم این عرصه مرور خواهند شد.
Killer robots or autonomous weapon systems (AWS) are representative of theapplication of AI in new areas, where worries about its wide application can befully expressed. This being said, it is expected that such systems have elicited manyreactions. These systems use AI in their main (or critical) functions, i.e. to decideabout the target, and what to be done about it. In recent years there have been manydebates from ethical, legal, and political standpoints about such systems; thesedebates revolve around what position one should adopt on their development,production, and use. Though such questions are important theoretically, the actualtechnological developments are getting closer to the ideals discussed, making theissue even more important. Here I assess some ethical arguments for and againstAWS. It seems that none of the arguments, for or against, is compelling enough totake a position. Therefore, either we should look for further arguments, or look intothe more general implications of the current state of arguments about the just wartheory, the main framework in which the issue is discussed. Along with thisexamination, some main ethical aspects of the issue are reviewed.
ملخص الجهاز:
در ايـن صـورت، بسـياري از عملکردهـا «خودکار» هستند، اما انسان همـواره نقـش خـود را در عملکردهـاي خـودرو ايفـا ميکنـد - همـۀ تصميم ها و دستورها از جانب انسان است ، اما خودروي خودران يا «خـودآيين » اساسـا مسـتقل از انسان کار ميکند و عملکردهايش منتظر دستورات انساني نيست يا دست کم اين چيزي اسـت کـه ۳۳ حالت آرماني خودروهاي خودران به نظر ميرسد.
٢ بايـد توجـه کنـيم که بحثي که در اين حوزه درگرفته راجع به «سلاح» خودآيين است ، بـه ايـن معنـا کـه خـودآييني در حوزٔه عملکردهاي اساسي سلاح باشد، ماننـد انتخـاب هـدف و تشـخيص اقـدام عليـه او.
نخست اين کـه بـه نظـر ميرسـد ممکـن اسـت مزيت هاي مذکور را بدون توسل به سامانۀ سلاح خودآيين تأمين کنيم .
چه نيازي است که خود سلاح هم چنان قابليتي داشته باشد؟ البته ، بايد توجـه کـرد کـه در اين صورت، شايد ديگر موضوع صحبت سامانۀ سـلاح خـودآيين بـه معنـاي دقيـق کلمـه نباشـد، بلکـه سلاحهايي باشد که اصطلاحا خودآيين ناميده ميشـوند.
البتـه ، از نظـر اسـتدلالهاي پـيش گفتـه ، انسان امکان رفتار انساني و درک ظرافت ها را دارد، اما همچنان اگـر بـه ضـعف هاي انسـان آگـاه باشـيم ، لازم است به اين سؤال نيز توجه کنيم که آيا ممکن است ماحصل عملکـرد سـامانۀ سـلاح خـودآيين در مقايسه با عمل انسانها بيشتر مطابق اخلاق باشد؟ در اينجا نظرم به تفکيک بنا بـر وظيفـه / مطـابق وظيفه است (٣٩٨ AK٤ ,٢٠٠٢ ,Kant).
مطلب اخير را ميتوان در قالب اين استدلال بيان کرد: ۱) اگر ديدگاه ما دربارٔە اخلاق جنگ درست باشد، سامانۀ سلاح خودآيين را محکوم ميکند.