چندین کشور دارای ارتشهای مجهز به فناوریهای پیشرفته از جمله چین، اسرائیل، روسیه، انگلیس، آمریکا و کرهی جنوبی در حال حرکت به سمت سامانههایی هستند که خودمختاری رزمی بیشتری به ماشینها خواهند داد. اگر یک یا چند کشور تصمیم به استفاده از جنگافزارهای کاملاً خودکار بگیرند، گامی بسیار فراتر از استفاده از هواگردهای هدایت شونده از راه دور، سایر کشورها ممکن است احساس کنند مجبور هستند سیاستهای خود را در این زمینه تغییر دهند و این موضوع منجر به شروع یک مسابقهی تسلیحاتی خواهد شد. اکنون و پیش از این که سرمایهگذاری، توسعهی فناوری و راهبردهای نظامیجدید، تغییر این روند را دشوار کنند، توافق برای فراهم و برقرار کردن کنترل این جنگافزارها ضروری است.
اجازه دادن به رباتها برای تصمیم گیری در مورد زندگی یا مرگ انسانها از خط قرمز اخلاقی بنیادینی عبور میکند. رباتهای خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. این ویژگیها برای اتخاذ تصمیمهای پیچیدهی اخلاقی در یک میدان نبرد پویا، ضروری هستند.
به عنوان مثال آیا یک ربات می تواند در یک محیط شلوغ شهری به اندازهی کافی بین نظامیان و غیر نظامیان تمایز قائل شود؟ و آیا ارزیابیها و واکنشهای آنها متناسب با نوع محیط و نوع تهدیدهای موجود خواهد بود؟ برای نمونه، آیا رباتی که مسلح به مسلسل و موشک است می تواند تشخیص دهد به سمت نظامیانی که در اطراف یک ساختمان مسکونی سنگر گرفتهاند نباید موشک شلیک کند؟ در نتیجه رباتهای کاملاً خودکار الزامات قانونهای جنگی را نمیتوانند اجرا کنند.
جایگزین کردن سربازان با ماشینها، ممکن است باعث شود به راه انداختن جنگها کار سادهتری شود. این موضوع موجب میشود بار دشواریهای جنگ از روی دوش نیروهای نظامی برداشته شده و به مردم غیرنظامی تحمیل شود. به کارگیری رباتهای کاملاً خودکار باعث میشود شکافی در مسئولیت پذیری و پاسخگویی نیروهای نظامی ایجاد شود چرا که مشخص نیست چه کسی از نظر قانون در مورد اقدامهای رباتها پاسخگو خواهد بود: فرماندهان، برنامهنویسان، تولیدکنندگان یا خود رباتها؟
بدون وجود کسی که در برابر کارهای رباتها مسئول و پاسخگو باشد، نظامیان برای اطمینان پیدا کردن از این که رباتها، غیر نظامیان را در معرض خطر قرار نمیدهند، انگیزهی کمیخواهند داشت و قربانیان اقدامهای رباتها نیز از این که کسی به خاطر آنچه بر سر آنها آمده است مجازات نمیشود، ناراضی خواهند بود.
دادن این قدرت به ماشینها که تصمیم بگیرند در میدان نبرد چه کسی زنده بماند و چه کسی کشته شود یک کاربرد غیرقابل پذیرش فناوری است. نظارت انسانی بر هر ربات رزمی، برای اطمینان پیدا کردن از محافظت بشردوستانه و کنترل قانونی موثر، ضروری است. انسانها نباید از حلقهی تصمیم گیری در مورد انتخاب هدف و شلیک به سمت آن در میدان جنگ، کنار گذاشته شوند.
=========================
به نظر من دادن خودمختاری کامل به یک ربات ممکن است در آینده دردسرساز باشد، همون طور که در مقاله ی بالا اشاره شد، ممکن هست ربات ها در تشخیص هدف اشتباه کنند و حتی باعث ایجاد جنگ بین دو کشور شوند. مثل بسیاری از مسلسل های خودکار که در مرزها مستقر هستند. واگر به اشتباه به هدفی از کشور همسایه شلیک کنند باعث ایجاد جنگ بین دو کشور خواهند شد.
همچنین اگر ربات های سربازی طراحی شوند که هدفشان تنها از بین بردن دشمن باشد، ممکن است در جنگ ها نتوانند اخلاقی تصمیم بگیرند و غیرنظامیان یا حتی کودکان را به جای افراد نظامی دشمن مورد هدف قرار دهند.
به نظر شما ساختن رباتهای نظامی کار درستی است؟!
بسیاری از ما انسان ها (از جمله خود من) با جنگ و خونریزی مخالفیم و ترجیح می دهیم زمان، منابع و پولی که صرف این مسائل می شود در موارد بهتری مانند آبادانی زمین هزینه شود ولی از آنجا که انسان ها و دولت ها بر سر منافع و اعتقادات خود به توافق نمی رسند و قدرت های بزرگ بیشتر به منافع خود می اندیشند و تنها نظرت خود را درست می دانند؛ نمی توان همیشه از جنگ و به دنبال آن نمی توان از پیشرفت تگنولوژی در این زمینه جلوگیری کرد( اگر این گونه بود همچنان باید با چوب و چماق و تن به تن می جنگیدیم). ولی نباید در برابر جنگ افزار های غیر عادلانه هم سکوت کرد و معایب آن ها را در نظر نگرفت. انسان همان طور که دست به اختراع و نوآوری می زند باید مسئولیت کارهای خود را نیز قبول و اصلاح کند. در مورد این جنگ افزارها هم باید نکات گفته شده در نظر گرفته و اصلاح شود. درست است که همیشه نمی توان معایب یک تکنولوژی (آن هم جنگ افزارها) را به صفر رساند اما این نکته را هم باید در نظر گرفت که در جنگ هایی که از این ربات ها استفاده نمی شود نیز امکان خطاهای این چنینی وجود دارد.
به نظر من انسان ها باید از تجهیزاتی که کارها را راحت تر میکند استفاده کنند در این صورت انسان ها میتوانند از ربات ها استفاده کنند اما در هنگام ساخت آن باید مواردی را رعایت کنند تا با مشکل مواجه نشوند.
به نظر من موردی که باید در ساخت ربات ها در نظر گرفت صلح طلبی آنها است. همانطور که شما فرمودید رباتهای خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. و ممکن است ربات ها باعث شوند جنگ های زیادی ایجاد شود و انسان های زیادی کشته شوند. اما اگر ربات ها را صلح طلب ایجاد کنیم این مشکل ها حل میشوند. این به این معنی است که نباید ربات ها طوری بسازیم که علاقه کشتن عمدی انسان ها را داشته باشند و یا علاقه به گسترش و شرکت و ترویج جنگ را داشته باشند. پس نتیجه میگیریم چون انسان ها صلح طلب هستند پس دست سازه های آنها، که همان ربات ها هستند باید صلح طلب باشند.
به نظر من انسان ها باید از تجهیزاتی که کارها را راحت تر میکند استفاده کنند در این صورت انسان ها میتوانند از ربات ها استفاده کنند اما در هنگام ساخت آن باید مواردی را رعایت کنند تا با مشکل مواجه نشوند.
به نظر من موردی که باید در ساخت ربات ها در نظر گرفت صلح طلبی آنها است. همانطور که شما فرمودید رباتهای خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. و ممکن است ربات ها باعث شوند جنگ های زیادی ایجاد شود و انسان های زیادی کشته شوند. اما اگر ربات ها را صلح طلب ایجاد کنیم این مشکل ها حل میشوند. این به این معنی است که نباید ربات ها طوری بسازیم که علاقه کشتن عمدی انسان ها را داشته باشند و یا علاقه به گسترش و شرکت و ترویج جنگ را داشته باشند. پس نتیجه میگیریم چون انسان ها صلح طلب هستند پس دست سازه های آنها، که همان ربات ها هستند باید صلح طلب باشند.