بازار؛ گروه بین الملل: سایت تحلیلی National Interest اخیرا مقاله ای در مورد تاثیر هوش مصنوعی بر بازدارندگی منتشر کرده است. ترجمه متن مقاله در زیر آمده است.
سرمایه گذاری های قابل توجه دولت ها، صنایع خصوصی و دانشگاه ها در زمینه هوش مصنوعی بر نقش محوری آن تاکید دارد. با این حال، بسیاری از بحث ها حول این موضوع است که چگونه روبات ها آرمان شهر را نشان می دهند. چنین اکتشافات بسیار محدودی سؤالات بی پاسخی در مورد تأثیر بالقوه هوش مصنوعی بر مسائل استراتژیک کلیدی باقی می گذارد. بنابراین نیاز به بحث در مورد راههایی وجود دارد که هوش مصنوعی معادله بازدارندگی و اجبار را تغییر میدهد و راههای مقابله با چالشهای راهبردی ایجاد شده در این زمینه.
اساساً بازدارندگی به معنای تأثیرگذاری بر رفتار دشمن از طریق تهدید به مجازات یا تلافی است. هدف از بازدارندگی متقاعد کردن حریف برای دست کشیدن از یک اقدام خاص با القای ترس از عواقب و در نتیجه دستکاری در محاسبات هزینه و فایده خود است. در حالی که هدف بازدارندگی جلوگیری از انجام یک اقدام خاص در آینده توسط دشمن است، اجبار به دنبال تغییر رفتار فعلی دشمن است.
هر دو مفهوم تحت مفهوم گسترده تر اجبار قرار می گیرند. بازیگران درگیر در این پویایی باید به دقت در نظر بگیرند که چگونه تهدیدات را به دشمنان خود منتقل کنند تا آنها را وادار به تجدید نظر در تمایل خود برای انجام اقدامات خاص کنند. هر حرکت و ضد حمله در محاسبات اجباری خطرات افزایشی قابل توجهی را به همراه دارد که می تواند عواقب ناخواسته ای داشته باشد. بنابراین، تصمیم گیرندگان باید هر مرحله را عاقلانه در نظر بگیرند و از تاریخ و روانشناسی برای برقراری ارتباط با تهدیدات معتبر استفاده کنند تا دشمنان را از عبور از خطوط قرمز بازدارند.
فقدان ذاتی توضیحپذیری هوش مصنوعی، حتی در کاربردهای سطحی، چالش مهمی را ایجاد میکند، زیرا به طور فزایندهای در قابلیتهای نظامی که قدرت وارد کردن آسیبهای عظیم را دارند، ادغام میشود.
عناصر ضروری اجبار عبارتند از: قدرت، ادراک و اقناع. قدرت چند بعد دارد. تواناییهای نظامی، ثروت اقتصادی، پیشرفتهای فناوری، روابط دیپلماتیک، منابع طبیعی و نفوذ فرهنگی یک بازیگر علاوه بر قدرت واقعی، توانایی در اختیار داشتن آن بسیار مهم است. همچنین درک ما از دیگران مهم است، از جمله درک ترسها، ایدئولوژیها، انگیزههای رفتارشان و ابزارهایی که بازیگران برای متقاعد کردن دیگران برای رسیدن به آنچه در روابطشان میخواهند استفاده میکنند.
با این حال، این تعامل قدرت پویا که منجر به همکاری، رقابت و درگیری می شود، احتمالاً توسط هوش مصنوعی و ابهامی که هنگام تفسیر جاه طلبی های تدافعی یا تهاجمی یک بازیگر به ذهن تصمیم گیرندگان تزریق می کند، بی ثبات می شود. به عنوان مثال، استفاده از هوش مصنوعی احتمالاً این تعصب را تقویت می کند که وضعیت نظامی دشمن به طور فزاینده ای منعکس کننده یک جهت تهاجمی به جای دفاعی است. تقویت پیش داوری ها ممکن است به این معنی باشد که نقش دیپلماسی در کاهش تنش چالش برانگیزتر خواهد بود.
فقدان ذاتی توضیحپذیری هوش مصنوعی، حتی در کاربردهای سطحی، چالش مهمی را ایجاد میکند، زیرا به طور فزایندهای در قابلیتهای نظامی ادغام میشود که قدرت وارد کردن آسیبهای بزرگ را دارند. تصمیم گیرندگان باید در میان این ابهام با تفسیر معادله تهاجمی-تدافعی همتایان خود دست و پنجه نرم کنند.
به عنوان مثال، یک مجموعه هوش مصنوعی، نظارت و شناسایی (IRS) را تصور کنید که تمرینات نظامی چین در دریای چین جنوبی را ردیابی می کند، تمرینات را به عنوان مقدمه ای برای حمله به تایوان تجزیه و تحلیل می کند و به ایالات متحده توصیه می کند که گروه های ناو هواپیمابر را برای بازدارندگی مستقر کند. به چین. تصمیم گیرندگان آمریکایی بر این توصیه تکیه می کنند زیرا مجموعه هوش مصنوعی داده های بسیار بیشتری را نسبت به آنچه که انسان می تواند پردازش و توصیه کند نظارت و شناسایی می کند. با این حال، پکن نمی تواند مطمئن باشد که آیا اقدام ایالات متحده در پاسخ به تمرینات نظامی این کشور است یا برای اهداف دیگر. رهبران چین همچنین مطمئن نیستند که ایالات متحده چگونه به این تصمیم رسید و اهداف آن چیست. که باعث سردرگمی بیشتر در تفسیر او از انگیزه های استراتژیک آمریکا و میزانی که این انگیزه ها توسط توصیه های هوش مصنوعی در مقابل شناخت انسانی مطلع می شوند، می افزاید. این پویایی ها برداشت های نادرست را تقویت می کند و اجتناب از یک مارپیچ خطرناک را که می تواند منجر به درگیری جنبشی شود، ذاتاً دشوارتر می کند.
در ارتش، سوگیری الگوریتمی در جمعآوری، آموزش و کاربرد دادهها میتواند پیامدهای مرگباری داشته باشد. انسان ها می توانند هوش مصنوعی را شکل دهند، اما فناوری های جدید به نوبه خود می توانند تصمیم گیری های آینده شما را شکل دهند
در ارتش، سوگیری الگوریتمی در جمعآوری، آموزش و کاربرد دادهها میتواند پیامدهای مرگباری داشته باشد. انسان ها می توانند هوش مصنوعی را شکل دهند، اما فناوری های جدید به نوبه خود می توانند تصمیم گیری های آینده آنها را شکل دهند. تداوم عدم قطعیت در سیستم دولت بین المللی به این معنی است که تصورات از پیش تعیین شده باقی خواهند ماند. هیچ راه حل تکنولوژیکی از جمله هوش مصنوعی نمی تواند بر این ناامنی های عمیق انسانی غلبه کند. تصاویر شناختی، یعنی درک بازیگر از همتای خود را نمیتوان به داده تقلیل داد، مهم نیست که مجموعه دادههای چند برداری چقدر پیچیده است که قابلیت هوش مصنوعی را تغذیه میکند، تا حدی به این دلیل که دادهها نمیتوانند معنای منحصربهفرد هیچ خاصی را دریافت کنند. وضعیت به نمایندگی
بنابراین، علیرغم پتانسیل هوش مصنوعی برای افزایش قابلیتهای نظامی از طریق بهبود آگاهی موقعیتی، هدفگیری دقیق و تصمیمگیری سریع، نمیتواند معضل امنیتی را که ریشه در عدم اطمینان بینالمللی سیستمی دارد، ریشه کن کند. در بهترین حالت، پذیرش فزاینده هوش مصنوعی در ساختارهای سیاسی، نظامی و دفاعی توسط بازیگران جهانی می تواند تقریباً به همین مفاهیم منجر شود.
با این حال، ما باید برای نوسانات بیشتر آماده باشیم زیرا دولت ها برای پیشی گرفتن از رقبای خود عجله دارند و متقاعد شده اند که هوش مصنوعی می تواند جایگاه خود را در سیستم بین المللی تسریع کند و معضل امنیتی را تشدید کند. در نتیجه، دولتها اغلب خود را برای بدترین شرایط آماده میکنند، زیرا هرگز نمیتوانند اهداف رقبای خود را به درستی بدانند.
یک چالش عمده در برقراری ارتباط موثر قابلیتهای مبتنی بر الگوریتم نهفته است. هیچ معیاری معادل توانایی هوش مصنوعی برای پلتفرمهای تسلیحات فیزیکی مانند تانکها، موشکها یا زیردریاییها وجود ندارد که تنها عدم قطعیت بازدارندگی را افزایش میدهد.
هنر متقاعدسازی نیز احتمالاً با پذیرش هوش مصنوعی پیچیدهتر میشود. پیشرفتهای هوش مصنوعی قبلاً قدرت سیستمهای هوش مصنوعی را برای متقاعد کردن انسانها برای خرید محصولات، تماشای ویدیو و جستجو در اتاقک پژواک خود نشان داده است. از آنجایی که سیستمهای هوش مصنوعی حتی در محیطهای بسیار طبقهبندیشده و حساستر شخصی، فراگیر و قابل دسترستر میشوند، این خطر وجود دارد که تعصبات تصمیمگیرندگان بر نحوه شکلگیری واقعیت تأثیر بگذارد.
فقدان قابلیت توضیح هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیم گیرندگان دشوار می کند و خطر سوء تفاهم و تشدید را افزایش می دهد.
رهبران غیرنظامی و نظامی دوست دارند باور کنند که کنترل محیط های اطلاعاتی خود را در دست دارند. با این حال، هوش مصنوعی میتواند تجربیات آنها را از نظر کیفی تغییر دهد، زیرا آنها نیز در معرض درجات مختلفی از اطلاعات نادرست و کمپینهای اطلاعات نادرست قدرتمند توسط مخالفان خود قرار خواهند گرفت. بنابراین، تعامل ما با هوش مصنوعی و ابزارهای متقاعدسازی مبتنی بر هوش مصنوعی احتمالاً بر محیط اطلاعاتی ما تأثیر می گذارد و بر نحوه تمرین و واکنش ما به پویایی اجبار تأثیر می گذارد.
پذیرش فزاینده هوش مصنوعی در حوزه نظامی چالشهای مهمی را برای شیوههای بازدارندگی ایجاد میکند. فقدان قابلیت توضیح هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیم گیرندگان دشوار می کند و خطر سوء تفاهم و تشدید را افزایش می دهد. اتخاذ زودهنگام تصمیمات مبتنی بر هوش مصنوعی می تواند تصاویر و پیشداوری های دشمن را تقویت کند، بی اعتمادی را تقویت کند و به طور بالقوه منجر به درگیری شود. در حالی که هوش مصنوعی طیف وسیعی از قابلیتهای نظامی را افزایش میدهد، نمیتواند ناامنی اساسی را که به معضلات امنیتی در روابط بیندولتی دامن میزند، از بین ببرد. از آنجایی که دولت ها بر سر مزیت های استراتژیک مبتنی بر هوش مصنوعی رقابت می کنند، نوسانات و خطر تشدید افزایش می یابد. در نهایت، تراژدی عدم اطمینان و ترس بر نیاز به سیاستهای محتاطانه تأکید میکند زیرا هوش مصنوعی در ماشینهای جنگی ما رواج بیشتری مییابد.