حمله به ایران: آزمایشگاه ماشین پیشرفته تخریب و کشتار
نظامیان و نظریهپردازن جنگ به حملهای که آمریکا و اسرائیل علیه ایران پیش میبرند به عنوان آزمایشگاهی برای سنجش فناوی جدید جنگی مینگرند که شاخص اصلی آن استفاده وسیع از هوش مصنوعی است.

حمله موشکی اسرائیل به مدرسه در میناب ـ ۹ اسفند ۱۴۰۴ ـ منبع: شبکههای اجتماعی
از هم اکنون این نظر مطرح است که یکی از فواید حمله به ایران از سوی اسرائیل و آمریکا پیشرفتهتر کردن دستگاه جنگیشان از طریق یک آزمون واقعی است.
ناظران (نگاه کنید از جمله به منابع فهرست شده در پایین این نوشته) میگویند جنگی که در جریان است، تحولی بنیادین در سیستم تخریب و کشتار است. یکی از شاخصهای این تحول استفاده از هوش مصنوعی در حدی به مراتب بالاتر از موردهای اخیر در درگیریهای نظامی است.
فرا ـ جنگ
جنگ کنونی علیه ایران از نوعی است که در گفتار جدید نظریهپردازان جنگ (از جمله James F. Dunnigan) فرا ـ جنگ (Hyper-war) خوانده میشود. منظور از آن جنگی است که در آن سرعت، هوش مصنوعی و سامانههای خودکار نقش تعیینکننده دارند.
در این شیوه نوین، چرخه شناسایی، تحلیل، تصمیمگیری و اجرای عملیات با چنان شتابی انجام میشود که عملاً از توان واکنش انسانی فراتر میرود. در فرا ـ جنگ، الگوریتمها اهداف را شناسایی میکنند، گزینههای حمله را میسنجند و حتی فرمان اجرای عملیات را صادر میکنند؛ همه اینها در کسری از ثانیه و در میدانهایی همزمان از زمین و دریا تا فضا و فضای سایبری.
هوش مصنوعی و کشتار در میناب
گاردین در مقالهای مرتبط با جنگ جاری علیه ایران، از قول پرارانا جوشی، محقق یک اندیشکده نظامی، مینویسد:
کاربست هوش مصنوعی در حال گسترش است. این کار در سراسر داشتههای دفاعی کشورها انجام میشود ـ از جمله در تدارکات، آموزش، مدیریت تصمیم و نگهداری... هوش مصنوعی فناوریای است که به تصمیمگیرندگان و هر کسی در آن زنجیره اجازه میدهد بهرهوری و کارایی کار خود را بهبود بخشند. این روشی برای ترکیب دادهها با سرعتی بسیار بیشتر برای کمک به تصمیمگیرندگان.
کمک به تصمیمگیرندگان!
گاردین کشتار در مدرسهای در میناب را بهعنوان یک نمونه ذکر میکند و توضیح میدهد که اصل قرار دادنِ سرعت، سپردن امور به دست ماشین است، چیزی که «واگذاری شناختی» است و باید نگرانکننده باشد:
حمله موشکی به یک مدرسه در جنوب ایران ـ که رسانههای دولتی آن را نزدیک به یک پادگان نظامی توصیف کردند ـ این نگرانیها را در کانون توجه قرار داده است. ۱۶۵ نفر، بسیاری از آنها کودک، در این حادثه کشته شدند. سازمان ملل آن را «نقض فاحش حقوق بشردوستانه» خواند و ارتش آمریکا اعلام کرد در حال بررسی گزارشهاست.
گاردین در گزارشش مینویسد:
دیوید لزلی، استاد اخلاق، فناوری و جامعه در دانشگاه کوئینمری لندن، درباره «واگذاری شناختی» هشدار میدهد ـ این ایده که تصمیمگیرندگان انسانی ممکن است احساس کنند از پیامدها فاصله دارند، چون ماشین همه تفکر را انجام داده است. دانشمندانی که این حوزه را مطالعه میکنند میگویند هوش مصنوعی زمان برنامهریزی لازم برای حملات پیچیده را فشرده میکند، و برخی نگراناند که این موضوع ممکن است به این منجر شود که کارشناسان نظامی و حقوقی صرفاً «تأیید رسمی» طرحهای ضربه خودکار را به عهده بگیرند، بدون فرصت کافی برای بررسی واقعی آنها.
منابع: Guardian, Medium, New York Times




نظرها
نظری وجود ندارد.