آیا باید جلوی ساخت ربات های نظامی را گرفت؟

چندین کشور دارای ارتش‌های مجهز به فناوری‌های پیشرفته از جمله چین، اسرائیل، روسیه، انگلیس، آمریکا و کره‌ی جنوبی در حال حرکت به سمت سامانه‌هایی هستند که خودمختاری رزمی‌ بیش‌تری به ماشین‌ها خواهند داد. اگر یک یا چند کشور تصمیم به استفاده از جنگ‌افزارهای کاملاً خودکار بگیرند، گامی بسیار فراتر از استفاده از هواگردهای هدایت شونده از راه دور، سایر کشورها ممکن است احساس کنند مجبور هستند سیاست‌های خود را در این زمینه تغییر دهند و این موضوع منجر به شروع یک مسابقه‌ی تسلیحاتی خواهد شد. اکنون و پیش از این که سرمایه‌گذاری، توسعه‌ی فناوری و راهبردهای نظامی‌جدید، تغییر این روند را دشوار کنند، توافق برای فراهم و برقرار کردن کنترل این جنگ‌افزارها ضروری است.

اجازه دادن به ربات‌ها برای تصمیم گیری در مورد زندگی یا مرگ انسان‌ها از خط قرمز اخلاقی بنیادینی عبور می‌کند. ربات‌های خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. این ویژگی‌ها برای اتخاذ تصمیم‌های پیچیده‌ی اخلاقی در یک میدان نبرد پویا، ضروری هستند.


 

 به عنوان مثال آیا یک ربات می تواند در یک محیط شلوغ شهری به اندازه‌ی کافی بین نظامیان و غیر نظامیان تمایز قائل شود؟ و آیا ارزیابی‌ها و واکنش‌های آنها متناسب با نوع محیط و نوع تهدیدهای موجود خواهد بود؟ برای نمونه، آیا رباتی که مسلح به مسلسل و موشک است می تواند تشخیص دهد به سمت نظامیانی که در اطراف یک ساختمان مسکونی سنگر گرفته‌اند نباید موشک شلیک کند؟ در نتیجه ربات‌های کاملاً خودکار الزامات قانون‌های جنگی را نمی‌توانند اجرا کنند.

جایگزین کردن سربازان با ماشین‌ها، ممکن است باعث شود به راه انداختن جنگ‌ها کار ساده‌تری شود. این موضوع موجب می‌شود بار دشواری‌های جنگ از روی دوش نیروهای نظامی برداشته شده و به مردم غیرنظامی‌ تحمیل شود. به کارگیری ربات‌های کاملاً خودکار باعث می‌شود شکافی در مسئولیت پذیری و پاسخگویی نیروهای نظامی ایجاد شود چرا که مشخص نیست چه کسی از نظر قانون در مورد اقدام‌های ربات‌ها پاسخ‌گو خواهد بود: فرماندهان، برنامه‌نویسان، تولیدکنندگان یا خود ربات‌ها؟

بدون وجود کسی که در برابر کارهای ربات‌ها مسئول و پاسخ‌گو باشد، نظامیان برای اطمینان پیدا کردن از این که ربات‌ها، غیر نظامیان را در معرض خطر قرار نمی‌دهند، انگیزه‌ی کمی‌خواهند داشت و قربانیان اقدام‌های ربات‌ها نیز از این که کسی به خاطر آن‌چه بر سر آن‌ها آمده است مجازات نمی‌شود، ناراضی خواهند بود.

دادن این قدرت به ماشین‌ها که تصمیم بگیرند در میدان نبرد چه کسی زنده بماند و چه کسی کشته شود یک کاربرد غیرقابل پذیرش فناوری است. نظارت انسانی بر هر ربات رزمی، برای اطمینان پیدا کردن از محافظت بشردوستانه و کنترل قانونی موثر، ضروری است. انسان‌ها نباید از حلقه‌ی تصمیم گیری در مورد انتخاب هدف و شلیک به سمت آن در میدان جنگ، کنار گذاشته شوند.

منبع

=========================

به نظر من دادن خودمختاری کامل به یک ربات ممکن است در آینده دردسرساز باشد، همون طور که در مقاله ی بالا اشاره شد، ممکن هست ربات ها در تشخیص هدف اشتباه کنند و حتی باعث ایجاد جنگ بین دو کشور شوند. مثل بسیاری از مسلسل های خودکار که در مرزها مستقر هستند. واگر به اشتباه به هدفی از کشور همسایه شلیک کنند باعث ایجاد جنگ بین دو کشور خواهند شد.

همچنین اگر ربات های سربازی طراحی شوند که هدفشان تنها از بین بردن دشمن باشد، ممکن است در جنگ ها نتوانند اخلاقی تصمیم بگیرند و غیرنظامیان یا حتی کودکان را به جای افراد نظامی دشمن مورد هدف قرار دهند.

به نظر شما ساختن رباتهای نظامی کار درستی است؟! 

نظرات 3 + ارسال نظر
لیلا بابائی شنبه 23 خرداد 1394 ساعت 12:08

بسیاری از ما انسان ها (از جمله خود من) با جنگ و خونریزی مخالفیم و ترجیح می دهیم زمان، منابع و پولی که صرف این مسائل می شود در موارد بهتری مانند آبادانی زمین هزینه شود ولی از آنجا که انسان ها و دولت ها بر سر منافع و اعتقادات خود به توافق نمی رسند و قدرت های بزرگ بیشتر به منافع خود می اندیشند و تنها نظرت خود را درست می دانند؛ نمی توان همیشه از جنگ و به دنبال آن نمی توان از پیشرفت تگنولوژی در این زمینه جلوگیری کرد( اگر این گونه بود همچنان باید با چوب و چماق و تن به تن می جنگیدیم). ولی نباید در برابر جنگ افزار های غیر عادلانه هم سکوت کرد و معایب آن ها را در نظر نگرفت. انسان همان طور که دست به اختراع و نوآوری می زند باید مسئولیت کارهای خود را نیز قبول و اصلاح کند. در مورد این جنگ افزارها هم باید نکات گفته شده در نظر گرفته و اصلاح شود. درست است که همیشه نمی توان معایب یک تکنولوژی (آن هم جنگ افزارها) را به صفر رساند اما این نکته را هم باید در نظر گرفت که در جنگ هایی که از این ربات ها استفاده نمی شود نیز امکان خطاهای این چنینی وجود دارد.

نیوشا محجوب چهارشنبه 20 خرداد 1394 ساعت 15:15

به نظر من انسان ها باید از تجهیزاتی که کارها را راحت تر میکند استفاده کنند در این صورت انسان ها میتوانند از ربات ها استفاده کنند اما در هنگام ساخت آن باید مواردی را رعایت کنند تا با مشکل مواجه نشوند.
به نظر من موردی که باید در ساخت ربات ها در نظر گرفت صلح طلبی آنها است. همانطور که شما فرمودید ربات‌های خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. و ممکن است ربات ها باعث شوند جنگ های زیادی ایجاد شود و انسان های زیادی کشته شوند. اما اگر ربات ها را صلح طلب ایجاد کنیم این مشکل ها حل میشوند. این به این معنی است که نباید ربات ها طوری بسازیم که علاقه کشتن عمدی انسان ها را داشته باشند و یا علاقه به گسترش و شرکت و ترویج جنگ را داشته باشند. پس نتیجه میگیریم چون انسان ها صلح طلب هستند پس دست سازه های آنها، که همان ربات ها هستند باید صلح طلب باشند.

محجوب چهارشنبه 20 خرداد 1394 ساعت 15:11

به نظر من انسان ها باید از تجهیزاتی که کارها را راحت تر میکند استفاده کنند در این صورت انسان ها میتوانند از ربات ها استفاده کنند اما در هنگام ساخت آن باید مواردی را رعایت کنند تا با مشکل مواجه نشوند.
به نظر من موردی که باید در ساخت ربات ها در نظر گرفت صلح طلبی آنها است. همانطور که شما فرمودید ربات‌های خودکار، فاقد قضاوت انسانی و توانایی درک شرایط میدان نبرد هستند. و ممکن است ربات ها باعث شوند جنگ های زیادی ایجاد شود و انسان های زیادی کشته شوند. اما اگر ربات ها را صلح طلب ایجاد کنیم این مشکل ها حل میشوند. این به این معنی است که نباید ربات ها طوری بسازیم که علاقه کشتن عمدی انسان ها را داشته باشند و یا علاقه به گسترش و شرکت و ترویج جنگ را داشته باشند. پس نتیجه میگیریم چون انسان ها صلح طلب هستند پس دست سازه های آنها، که همان ربات ها هستند باید صلح طلب باشند.

برای نمایش آواتار خود در این وبلاگ در سایت Gravatar.com ثبت نام کنید. (راهنما)
ایمیل شما بعد از ثبت نمایش داده نخواهد شد