بازار؛ گروه بین الملل: به تازگی سایت تحلیلی فارین افرز مقاله ای از «پل شعار» با عنوان «دوران خطرناک جنگ با هوش مصنوعی؛ چگونه تهدید سلاح های خودکار را محدود کنیم؟» منتشر کرده است که ترجمه متن مقاله در زیر آمده است.
سال گذشته، شرکت هواپیماهای بدون سرنشین اوکراینی Saker ادعا کرد که یک سلاح کاملا خودمختار به نام Saker Scout را پرتاب کرده است که با استفاده از هوش مصنوعی تصمیم میگیرد چه کسی را در میدان جنگ بکشد. مقامات ساکر گفتند که این پهپاد حملات خودمختار در مقیاس کوچک را انجام داده است. اگرچه این گزارش به طور مستقل تأیید نشده است، فناوری ساخت چنین سلاحی قطعا وجود دارد. این یک گام فنی کوچک است، اما گامی به سوی تولید سلاح های کاملاً خودمختار با قابلیت جستجو و انتخاب اهداف به تنهایی است.
استقرار پهپاد ساکر نشان می دهد که بحث در مورد قوانینی که استفاده از این نوع سلاح ها را محدود می کند بی فایده است. کشورها به مدت یک دهه در مورد نحوه استفاده از سلاح های خودکار بحث می کنند، اما هنوز بر سر مقرراتی برای محدود کردن آسیب این سلاح ها به توافق نرسیده اند. با این حال، نیاز فوری به یک توافق بین المللی وجود دارد. توسعه کنترل نشده سلاحهای خودکار میتواند منجر به جنگهایی شود که فراتر از کنترل انسان گسترش مییابد و محافظت کمتری برای رزمندگان و غیرنظامیان ایجاد میکند. حتی اگر ممنوعیت مطلق غیرواقعی باشد، مقررات عملی زیادی وجود دارد که دولت ها می توانند برای کاهش بدترین خطرات سلاح های خودمختار اتخاذ کنند. بدون محدودیت، بشریت در حال حرکت به سمت آینده جنگ ماشین محور خطرناک در معرض خطر است.
جنگ در اوکراین به نوآوری در سلاح های خودمختار، به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک سرعت بخشید.
از دهه 1980، کشورها از سلاح های نیمه اتوماتیک در موقعیت های محدود و دفاعی استفاده کردند. امروزه حداقل 30 کشور از سیستم های دفاع هوایی و موشکی یا سیستم های حفاظت ضد موشکی برای وسایل نقلیه زمینی که حالت های خودران دارند استفاده می کنند. پس از فعال شدن، این سامانههای دفاعی میتوانند بهطور خودکار موشکها، خمپارهها و هواپیماهای ورودی را شناسایی و رهگیری کنند. اما انسان ها بر عملکرد خود نظارت می کنند و اگر مشکلی پیش آمد می توانند مداخله کنند.
جنگ در اوکراین به نوآوری در هر دو طرف سرعت بخشید، به ویژه با فناوری های تجاری مانند هواپیماهای بدون سرنشین کوچک. مسکو و کیف به طور گسترده از هواپیماهای بدون سرنشین برای شناسایی و حملات علیه نیروهای زمینی استفاده کرده اند. این استقرار پهپادها به نوبه خود منجر به توسعه اقدامات متقابل جدید، از جمله سیستمهای جنگ الکترونیکی شده است که پیوندهای ارتباطی پهپادها را مختل میکند یا اپراتورها را روی زمین قرار میدهد و سپس میتوان به آنها حمله کرد. شکل خاصی که سلاح های خودمختار به خود می گیرند به نیازهای یک درگیری بستگی دارد.
چندین کشور از جمله چین، فرانسه، هند، روسیه، بریتانیا و ایالات متحده در حال حاضر روی پهپادهای جنگی رادارگریز کار می کنند. در جنگ های آینده، این پهپادها به طور مستقل پدافند هوایی یا پرتابگرهای موشک متحرک را هدف قرار خواهند داد. رباتهای زمینی از همتایان هوایی و دریایی خود عقب ماندهاند، اما در جنگهای آینده میتوان از تسلیحات خودمختار روی روباتها یا به جای سلاحهای ثابت استفاده کرد.
تغییرات احتمالاً به همین جا ختم نمی شود. ازدحام پهپادها می توانند به طور مستقل رفتار خود را هماهنگ کنند و به تغییرات میدان نبرد با سرعتی فراتر از توانایی های انسانی واکنش نشان دهند. واکنش های خودمختار می توانند سرعت عملیات و سرعت نبرد را افزایش دهند. این به نوبه خود می تواند فشار بیشتری برای خارج کردن انسان از چرخه تصمیم ایجاد کند. پیامدهای این تغییر به سمت دوران جدیدی از جنگ مکانیزه عمیق خواهد بود.
یکی از جدی ترین خطرات، ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است.
دانشمندان برجسته هوش مصنوعی، از جمله استاد دانشگاه کالیفرنیا، استوارت راسل و برنده جایزه تورینگ یانگ لاکون، در مورد خطرات سلاح های خودران هشدار داده اند. کنسرسیومی متشکل از 250 سازمان غیردولتی، از جمله عفو بینالملل، دیدهبان حقوق بشر و ابتکار زنان نوبل، کمپین روباتهای قاتل را متوقف کرده و خواستار یک معاهده پیشگیرانه و الزامآور برای ممنوعیت سلاحهای خودمختار هستند. انگیزه این هشدارها و کمپینها این نگرانی است که سلاحهای خودمختار میتوانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح های خودمختار می توانند با هدف قرار دادن جنگجویان تلفات غیرنظامیان را کاهش دهند، اما در دست دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی دهد (یا می خواهد غیرنظامیان را مجازات کند) می توان از آنها برای ارتکاب جنایات ویرانگر استفاده کرد.
یکی از جدی ترین خطرات، ادغام هوش مصنوعی و استقلال در سلاح های هسته ای است. در سال 2022، ایالات متحده اعلام کرد که برای تصمیم گیری در مورد استفاده از سلاح های هسته ای همیشه سیاست “مرد آگاه” را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال 2022 اتخاذ کرد. به نظر می رسد کنترل انسان بر سلاح های هسته ای نقطه شروع آسانی برای توافق بین المللی باشد.
استقرار گسترده تسلیحات خودمختار ادغام شده با سایر جنبه های هوش مصنوعی نظامی می تواند عصر جدیدی از جنگ ماشین محور را آغاز کند.
استقرار گسترده تسلیحات خودمختار ادغام شده با سایر جنبه های هوش مصنوعی نظامی می تواند عصر جدیدی از جنگ ماشین محور را آغاز کند. کاربردهای نظامی هوش مصنوعی می تواند پردازش اطلاعات و تصمیم گیری را تسریع کند. چرخه های تصمیم گیری با استفاده از هوش مصنوعی و اتوماسیون کشور کوتاه می شود تا زمان یافتن، شناسایی و حمله به اهداف دشمن کاهش یابد. از نظر تئوری، این می تواند به افراد زمان بیشتری برای تصمیم گیری متفکرانه و آگاهانه بدهد. در عمل، رقبا مجبور خواهند شد به طور مشابه پاسخ دهند و از اتوماسیون برای سرعت بخشیدن به عملیات خود استفاده کنند. نتیجه یک مارپیچ رو به بالا از اتوماسیون بیشتر و کنترل کمتر انسانی خواهد بود.
وضعیت نهایی این رقابت احتمالاً جنگی خواهد بود که با سرعت ماشین و خارج از کنترل انسان انجام شود. چن هونگهویی، محقق نظامی چینی در مدرسه فرماندهی ارتش آزادیبخش خلق، فرضیه تکینگی میدان نبرد را مطرح کرده است، نقطه ای که در آن سرعت جنگ ماشین محور به طور مشابه از سرعت تصمیم گیری انسانی فراتر می رود. این نقطه عطف انسان ها را مجبور می کند که کنترل را به ماشین ها برای هر دو تصمیم گیری تاکتیکی و استراتژی های جنگ در سطح عملیاتی واگذار کنند. ماشین ها نه تنها اهداف فردی را انتخاب می کنند، بلکه کل کمپین ها را نیز برنامه ریزی و اجرا می کنند. انسانها به روشن کردن ماشینها و ایستادن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگها کاهش مییابند.
بدون محدودیت های موثر، سلاح های خود مختار کنترل انسان بر جنگ را کاهش می دهد، خطرات بیشتری را برای غیرنظامیان و جنگجویان به همراه دارد و ثبات بین المللی را تضعیف می کند.
مقررات بین المللی، اگر با دقت طراحی و اجرا شود، می تواند به کاهش برخی از بدترین آسیب های ناشی از سلاح های خود مختار کمک کند. حدود 30 کشور و کنسرسیومی از سازمان های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام آور برای ممنوعیت سلاح های خودمختار قبل از استقرار آنها شده اند. از آنجایی که سلاح های خودمختار هنوز به طور کامل توسعه نیافته اند، آسیب احتمالی و ارزش نظامی آنها ناشناخته است. بنابراین، دولت ها به دلیل ادعاهای نامشخص در مورد آسیب احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند.
سلاح های خودمختار می آیند. تلاش برای ممنوعیت مستقیم آنها، حتی اگر با نیت خوب باشد، احتمالاً بیهوده است زیرا ارزش نظامی آنها بسیار زیاد است. با این حال، کشورها حق انتخاب نحوه استفاده از سلاح های خودمختار را دارند. بدون محدودیت های مؤثر، تسلیحات خودمختار کنترل انسان بر جنگ را کاهش می دهند، خطر بیشتری برای غیرنظامیان و ارتش ایجاد می کنند و ثبات بین المللی را تضعیف می کنند. باید اقدامات فوری برای مقابله با بدترین خطرات این سلاح ها انجام شود. این امر مستلزم فراتر رفتن از گزینه ساده و گمراهکننده کنونی ممنوعیت همه سلاحهای خودمختار بدون محدودیت است.
سلاح های خودمختار اولین آزمایش توانایی بشر برای مقابله با هوش مصنوعی است و انواع خطرناک تسلیحاتی در راه است. سیستم های هوش مصنوعی پیشرفته توانایی خود را در کمک به توسعه سلاح های سایبری و سلاح های شیمیایی و بیولوژیکی نشان داده اند. همکاری جهانی برای کنترل توسعه، محدود کردن گسترش آن و محافظت در برابر استفاده بالقوه آن ضروری است. دستیابی به یک توافق بینالمللی در مورد سلاحهای خودمختار برای رسیدگی به آسیبهای آنها و ایجاد زمینهای برای همکاری در مورد تهدیدات آینده هوش مصنوعی ضروری است.