ارتباط ناشناخته. ارتباط بدون سانسور. ارتباط برقرار نمی‌شود. سایت اصلی احتمالاً زیر سانسور است. ارتباط با سایت (های) موازی برقرار شد. ارتباط برقرار نمی‌شود. ارتباط اینترنت خود را امتحان کنید. احتمال دارد اینترنت به طور سراسری قطع شده باشد. ادامه مطلب

حمله به ایران: آزمایشگاه ماشین پیشرفته تخریب و کشتار

نظامیان و نظریه‌پردازن جنگ به حمله‌ای که آمریکا و اسرائیل علیه ایران پیش می‌برند به عنوان آزمایشگاهی برای سنجش فناوی جدید جنگی می‌نگرند که شاخص اصلی آن استفاده وسیع از هوش مصنوعی است.

از هم اکنون این نظر مطرح است که یکی از فواید حمله به ایران از سوی اسرائیل و آمریکا پیشرفته‌تر کردن دستگاه جنگی‌شان از طریق یک آزمون واقعی است.

ناظران (نگاه کنید از جمله به منابع فهرست شده در پایین این نوشته) می‌گویند جنگی که در جریان است، تحولی بنیادین در سیستم تخریب و کشتار است. یکی از شاخص‌های این تحول استفاده از هوش مصنوعی در حدی به مراتب بالاتر از موردهای اخیر در درگیری‌های نظامی است.

فرا ـ جنگ

جنگ کنونی علیه ایران از نوعی است که در گفتار جدید نظریه‌پردازان جنگ (از جمله James F. Dunnigan) فرا ـ جنگ  (Hyper-war) خوانده می‌شود. منظور از آن جنگی است که در آن سرعت، هوش مصنوعی و سامانه‌های خودکار نقش تعیین‌کننده دارند.

در این شیوه نوین، چرخه شناسایی، تحلیل، تصمیم‌گیری و اجرای عملیات با چنان شتابی انجام می‌شود که عملاً از توان واکنش انسانی فراتر می‌رود. در فرا ـ جنگ، الگوریتم‌ها اهداف را شناسایی می‌کنند، گزینه‌های حمله را می‌سنجند و حتی فرمان اجرای عملیات را صادر می‌کنند؛ همه این‌ها در کسری از ثانیه و در میدان‌هایی هم‌زمان از زمین و دریا تا فضا و فضای سایبری.

هوش مصنوعی و کشتار در میناب

گاردین در مقاله‌ای مرتبط با جنگ جاری علیه ایران، از قول پرارانا جوشی، محقق یک اندیشکده نظامی، می‌نویسد:

کاربست هوش مصنوعی در حال گسترش است. این کار در سراسر داشته‌های دفاعی کشورها انجام می‌شود ـ از جمله در تدارکات، آموزش، مدیریت تصمیم و نگهداری... هوش مصنوعی فناوری‌ای است که به تصمیم‌گیرندگان و هر کسی در آن زنجیره اجازه می‌دهد بهره‌وری و کارایی کار خود را بهبود بخشند. این روشی برای ترکیب داده‌ها با سرعتی بسیار بیشتر برای کمک به تصمیم‌گیرندگان.

کمک به تصمیم‌گیرندگان!

گاردین کشتار در مدرسه‌ای در میناب را به‌عنوان یک نمونه ذکر می‌کند و توضیح می‌دهد که اصل قرار دادنِ سرعت، سپردن امور به دست ماشین است، چیزی که «واگذاری شناختی» است و باید نگران‌کننده باشد:

حمله موشکی به یک مدرسه در جنوب ایران ـ که رسانه‌های دولتی آن را نزدیک به یک پادگان نظامی توصیف کردند ـ این نگرانی‌ها را در کانون توجه قرار داده است. ۱۶۵ نفر، بسیاری از آنها کودک، در این حادثه کشته شدند. سازمان ملل آن را «نقض فاحش حقوق بشردوستانه» خواند و ارتش آمریکا اعلام کرد در حال بررسی گزارش‌هاست.

گاردین در گزارشش می‌نویسد:

دیوید لزلی، استاد اخلاق، فناوری و جامعه در دانشگاه کوئین‌مری لندن، درباره «واگذاری شناختی» هشدار می‌دهد ـ این ایده که تصمیم‌گیرندگان انسانی ممکن است احساس کنند از پیامدها فاصله دارند، چون ماشین همه تفکر را انجام داده است. دانشمندانی که این حوزه را مطالعه می‌کنند می‌گویند هوش مصنوعی زمان برنامه‌ریزی لازم برای حملات پیچیده را فشرده می‌کند، و برخی نگران‌اند که این موضوع ممکن است به این منجر شود که کارشناسان نظامی و حقوقی صرفاً «تأیید رسمی» طرح‌های ضربه خودکار را به عهده بگیرند، بدون فرصت کافی برای بررسی واقعی آنها.

بیشتر بخوانید

این مطلب را پسندیدید؟ کمک مالی شما به ما این امکان را خواهد داد که از این نوع مطالب بیشتر منتشر کنیم.

آیا مایل هستید ما را در تحقیق و نوشتن تعداد بیشتری از این‌گونه مطالب یاری کنید؟

.در حال حاضر امکان دریافت کمک مخاطبان ساکن ایران وجود ندارد

توضیح بیشتر در مورد اینکه چطور از ما حمایت کنید

نظر بدهید

در پرکردن فرم خطایی صورت گرفته

نظرها

نظری وجود ندارد.