چکیده:
مزایای متعددی که استفاده از ربات های نظامی در مقایسه با افراد انسانی رزمنده دارند، سبب شده است تا این ربات ها به طور گسترده در مخاصمات مسلحانه مورد استفاده قرار بگیرند. گروهی از این ربات ها که می توانند بدون این که از سوی عامل انسانی هدایت شوند، عمل نمایند، ربات های نظامی خود فرمان هستند. این ربات ها هنوز چنین قابلیتی پیدا نکرده اند تا بتوانند قواعد حقوق بین الملل بشردوستانه از جمله اصل تفکیک و اصل تناسب را به طور کامل رعایت نمایند. با توجه به نقش افراد متعدد از جمله تولید کننده، طراح، برنامه نویس و فرمانده جنگی در اقدامات این ربات ها، نظریه هایی در خصوص مسووایت مطلق آنها، مسوولیت مشترک آنها با افراد مزبور و مسوولیت مطلق افراد ارایه شده است. در حال حاضر و به سبب تبعیت کامل این ربات ها از برنامه ای که برای آن ها نوشته می شود، تنها می توان مسوولیت انسان را در قبال اعمال آن ها پذیرفت. لذا، علی رغم پذیرش مسوولیت اولیه شخص به کار گیرنده این ربات ها، انتساب رفتار آنها اصولاً بر اساس رابطه سببیت میان آن رفتار و عامل ایجاد آن اعم از برنامه نویسی نادرست یا ویژگی مکانیکی ربات انجام می گیرد.
The multiple benefits of military robots compared with human combatants have caused these robots to be widely used in armed conflicts. Some of these robots that can act without remote control are Autonomous Military Robots. These robots have yet to find such a feature to totally observe rules of International Humanitarian Law such as the principle of discrimination and the principle of proportionality. According to the roles of multiple persons including producer، designer، programmer and warlords with respect to the actions of the robots، theories about their absolute responsibility، shared responsibility and absolute responsibility of persons have emerged. Due to the robot's full compliance with the program for which they are written، only human responsibility could be accepted for their actions. Therefore، despite the acceptance of primary responsibility of the person that uses robots، attribution of their conduct is generally based on the causal relationship between behavior and its cause of creation including incorrect programming or mechanical features of the robot.
خلاصه ماشینی:
این پیشرفت سریع سبب شده است تا مانند مخاصمات کاملا مجازی که در «فضای سایبری» رخ میدهد، ابهاماتی در خصوص قواعد حقوق بینالملل بشردوستانه در رابطه با مشارکت روباتها در جنگ و مسئولیت ناشی از اقدامات آنها ایجاد شود.
وضعیت حقوقی روبات نظامی و مزایا و معایب استفاده از آن در مخاصمات مسلحانه وضعیت حقوقی روبات نظامی بر اساس قواعد حقوق مخاصمات مسلحانه بهطور واضح مشخص نیست و این موضوع سؤالهای متعددی را ایجاد کرده است؛ ازجمله اینکه آیا میتوان این روباتها را «رزمنده» قلمداد کرد و پس از ساقطشدن و تصاحب آنها بهوسیلۀ نیروهای دشمن، وضعیت «اسیر جنگی» را در خصوص آنها فرض کرد؟ یا اینکه آیا میتوان آنها را «هدف نظامی» مشروع تلقی و به آنها شلیک کرد؟ ماده 44 پروتکل اول الحاقی به کنوانسیونهای چهارگانه ژنو، در توصیف «رزمنده» و «اسیر جنگی» از واژه Who استفاده کرده است که این کلمه تنها در خصوص انسانها استفاده میشود.
بااینحال، نبود سازوکار شکایت در موارد نقض حقوق بشردوستانه از سوی روبات نظامی به مانند آنچه در خصوص سلاحهای شیمیایی یا بیولوژیکی پیشبینی شده است، یکی از عواملی است که سبب میشود تا این روباتها بهطور گسترده در مخاصمات مورد استفاده قرار بگیرند.
2013, “The Illegality of Offensive Lethal Autonomy”, International Humanitarian Law and the Changing Technology of War-edited by Dan Saxon, Martinus Nijhoff Publishers.
2012, “On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making”, International Review of the Red Cross, vol.
2013, “At War with the Robots: Autonomous Weapon Systems and the Martens Clause”, Hofstra Law Review, vol.
2015, “Lethal Autonomous Robots: Are They Legal under International Human Rights and Humanitarian Law?”, Nebraska Law Review, vol.
2014, “The Strategic Robot Problem: Lethal Autonomous Weapons in War”, Journal of Military Ethics, vol.