رباتهای قاتل یا تصمیمات انسانی؛ مسئولیت جنگهای هوشمند با کی است؟
هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیمسازی نظامی تبدیل شده است. اما پرسش بنیادینی این است که وقتی ماشینها در میدان نبرد تصمیم میگیرند، چه کسی پاسخگو خواهد بود؟

مسئولیت جنگهای هوشمند در عصر هوش مصنوعی
هوش مصنوعی در دهه اخیر به یکی از تحولآفرینترین فناوریها در عرصه نظامی تبدیل شده است. این فناوری که زمانی صرفاً برای تحلیل دادهها استفاده میشد، اکنون در قلب سامانههای دفاعی و تهاجمی قدرتهای بزرگ جهان جای گرفته است. اما پرسش بنیادین اینجاست: وقتی ماشینها در میدان نبرد تصمیم میگیرند، مسئولیت اخلاقی و حقوقی با کیست؟ مفهوم «شکاف مسئولیت» یکی از بحثبرانگیزترین موضوعات عصر حاضر شده است.
- هوش مصنوعی از سامانههای شناسایی تهدید تا کنترل پهپادها نفوذ کرده است
- سامانه «Lavender» نمونه بحثبرانگیز استفاده از هوش مصنوعی در هدفگیری است
- مسئولیت همواره متوجه طراحان، مجریان و فرماندهان انسانی است
- هوش مصنوعی خارج از سلسلهمراتب فرماندهی نظامی وجود ندارد
- خطاهای سیستمهای هوشمند بازتاب تصمیمهای انسانی در طراحی است
پنی وونگ: «هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت است و میتواند موجب تشدید غیرقابل پیشبینی درگیریها شود»
«هوش مصنوعی نه ماهیت جنگ را دگرگون میکند و نه از الزامهای اخلاقی میگریزد؛ بلکه لایههای مسئولیت را بازتوزیع میکند»
در نهایت، خطر اصلی نه از جانب رباتهای قاتل، بلکه از سوی انسانهایی است که در پشت آنها پنهان میشوند و از پاسخگویی میگریزند.
