افزونه پارسی دیت را نصب کنید Friday, 18 October , 2024
3

پیامدهای مرگبار تعصب الگوریتمی هوش مصنوعی

  • کد خبر : 285410
پیامدهای مرگبار تعصب الگوریتمی هوش مصنوعی

بازار؛ گروه بین الملل: سایت تحلیلی National Interest اخیرا مقاله ای در مورد تاثیر هوش مصنوعی بر بازدارندگی منتشر کرده است. ترجمه متن مقاله در زیر آمده است. سرمایه گذاری های قابل توجه دولت ها، صنایع خصوصی و دانشگاه ها در زمینه هوش مصنوعی بر نقش محوری آن تاکید دارد. با این حال، بسیاری از […]

بازار؛ گروه بین الملل: سایت تحلیلی National Interest اخیرا مقاله ای در مورد تاثیر هوش مصنوعی بر بازدارندگی منتشر کرده است. ترجمه متن مقاله در زیر آمده است.

سرمایه گذاری های قابل توجه دولت ها، صنایع خصوصی و دانشگاه ها در زمینه هوش مصنوعی بر نقش محوری آن تاکید دارد. با این حال، بسیاری از بحث ها حول این موضوع است که چگونه روبات ها آرمان شهر را نشان می دهند. چنین اکتشافات بسیار محدودی سؤالات بی پاسخی در مورد تأثیر بالقوه هوش مصنوعی بر مسائل استراتژیک کلیدی باقی می گذارد. بنابراین نیاز به بحث در مورد راه‌هایی وجود دارد که هوش مصنوعی معادله بازدارندگی و اجبار را تغییر می‌دهد و راه‌های مقابله با چالش‌های راهبردی ایجاد شده در این زمینه.

اساساً بازدارندگی به معنای تأثیرگذاری بر رفتار دشمن از طریق تهدید به مجازات یا تلافی است. هدف از بازدارندگی متقاعد کردن حریف برای دست کشیدن از یک اقدام خاص با القای ترس از عواقب و در نتیجه دستکاری در محاسبات هزینه و فایده خود است. در حالی که هدف بازدارندگی جلوگیری از انجام یک اقدام خاص در آینده توسط دشمن است، اجبار به دنبال تغییر رفتار فعلی دشمن است.

هر دو مفهوم تحت مفهوم گسترده تر اجبار قرار می گیرند. بازیگران درگیر در این پویایی باید به دقت در نظر بگیرند که چگونه تهدیدات را به دشمنان خود منتقل کنند تا آنها را وادار به تجدید نظر در تمایل خود برای انجام اقدامات خاص کنند. هر حرکت و ضد حمله در محاسبات اجباری خطرات افزایشی قابل توجهی را به همراه دارد که می تواند عواقب ناخواسته ای داشته باشد. بنابراین، تصمیم گیرندگان باید هر مرحله را عاقلانه در نظر بگیرند و از تاریخ و روانشناسی برای برقراری ارتباط با تهدیدات معتبر استفاده کنند تا دشمنان را از عبور از خطوط قرمز بازدارند.

فقدان ذاتی توضیح‌پذیری هوش مصنوعی، حتی در کاربردهای سطحی، چالش مهمی را ایجاد می‌کند، زیرا به طور فزاینده‌ای در قابلیت‌های نظامی که قدرت وارد کردن آسیب‌های عظیم را دارند، ادغام می‌شود.

عناصر ضروری اجبار عبارتند از: قدرت، ادراک و اقناع. قدرت چند بعد دارد. توانایی‌های نظامی، ثروت اقتصادی، پیشرفت‌های فناوری، روابط دیپلماتیک، منابع طبیعی و نفوذ فرهنگی یک بازیگر علاوه بر قدرت واقعی، توانایی در اختیار داشتن آن بسیار مهم است. همچنین درک ما از دیگران مهم است، از جمله درک ترس‌ها، ایدئولوژی‌ها، انگیزه‌های رفتارشان و ابزارهایی که بازیگران برای متقاعد کردن دیگران برای رسیدن به آنچه در روابطشان می‌خواهند استفاده می‌کنند.

با این حال، این تعامل قدرت پویا که منجر به همکاری، رقابت و درگیری می شود، احتمالاً توسط هوش مصنوعی و ابهامی که هنگام تفسیر جاه طلبی های تدافعی یا تهاجمی یک بازیگر به ذهن تصمیم گیرندگان تزریق می کند، بی ثبات می شود. به عنوان مثال، استفاده از هوش مصنوعی احتمالاً این تعصب را تقویت می کند که وضعیت نظامی دشمن به طور فزاینده ای منعکس کننده یک جهت تهاجمی به جای دفاعی است. تقویت پیش داوری ها ممکن است به این معنی باشد که نقش دیپلماسی در کاهش تنش چالش برانگیزتر خواهد بود.

فقدان ذاتی توضیح‌پذیری هوش مصنوعی، حتی در کاربردهای سطحی، چالش مهمی را ایجاد می‌کند، زیرا به طور فزاینده‌ای در قابلیت‌های نظامی ادغام می‌شود که قدرت وارد کردن آسیب‌های بزرگ را دارند. تصمیم گیرندگان باید در میان این ابهام با تفسیر معادله تهاجمی-تدافعی همتایان خود دست و پنجه نرم کنند.

به عنوان مثال، یک مجموعه هوش مصنوعی، نظارت و شناسایی (IRS) را تصور کنید که تمرینات نظامی چین در دریای چین جنوبی را ردیابی می کند، تمرینات را به عنوان مقدمه ای برای حمله به تایوان تجزیه و تحلیل می کند و به ایالات متحده توصیه می کند که گروه های ناو هواپیمابر را برای بازدارندگی مستقر کند. به چین. تصمیم گیرندگان آمریکایی بر این توصیه تکیه می کنند زیرا مجموعه هوش مصنوعی داده های بسیار بیشتری را نسبت به آنچه که انسان می تواند پردازش و توصیه کند نظارت و شناسایی می کند. با این حال، پکن نمی تواند مطمئن باشد که آیا اقدام ایالات متحده در پاسخ به تمرینات نظامی این کشور است یا برای اهداف دیگر. رهبران چین همچنین مطمئن نیستند که ایالات متحده چگونه به این تصمیم رسید و اهداف آن چیست. که باعث سردرگمی بیشتر در تفسیر او از انگیزه های استراتژیک آمریکا و میزانی که این انگیزه ها توسط توصیه های هوش مصنوعی در مقابل شناخت انسانی مطلع می شوند، می افزاید. این پویایی ها برداشت های نادرست را تقویت می کند و اجتناب از یک مارپیچ خطرناک را که می تواند منجر به درگیری جنبشی شود، ذاتاً دشوارتر می کند.

در ارتش، سوگیری الگوریتمی در جمع‌آوری، آموزش و کاربرد داده‌ها می‌تواند پیامدهای مرگباری داشته باشد. انسان ها می توانند هوش مصنوعی را شکل دهند، اما فناوری های جدید به نوبه خود می توانند تصمیم گیری های آینده شما را شکل دهند

در ارتش، سوگیری الگوریتمی در جمع‌آوری، آموزش و کاربرد داده‌ها می‌تواند پیامدهای مرگباری داشته باشد. انسان ها می توانند هوش مصنوعی را شکل دهند، اما فناوری های جدید به نوبه خود می توانند تصمیم گیری های آینده آنها را شکل دهند. تداوم عدم قطعیت در سیستم دولت بین المللی به این معنی است که تصورات از پیش تعیین شده باقی خواهند ماند. هیچ راه حل تکنولوژیکی از جمله هوش مصنوعی نمی تواند بر این ناامنی های عمیق انسانی غلبه کند. تصاویر شناختی، یعنی درک بازیگر از همتای خود را نمی‌توان به داده تقلیل داد، مهم نیست که مجموعه داده‌های چند برداری چقدر پیچیده است که قابلیت هوش مصنوعی را تغذیه می‌کند، تا حدی به این دلیل که داده‌ها نمی‌توانند معنای منحصربه‌فرد هیچ خاصی را دریافت کنند. وضعیت به نمایندگی

بنابراین، علی‌رغم پتانسیل هوش مصنوعی برای افزایش قابلیت‌های نظامی از طریق بهبود آگاهی موقعیتی، هدف‌گیری دقیق و تصمیم‌گیری سریع، نمی‌تواند معضل امنیتی را که ریشه در عدم اطمینان بین‌المللی سیستمی دارد، ریشه کن کند. در بهترین حالت، پذیرش فزاینده هوش مصنوعی در ساختارهای سیاسی، نظامی و دفاعی توسط بازیگران جهانی می تواند تقریباً به همین مفاهیم منجر شود.

با این حال، ما باید برای نوسانات بیشتر آماده باشیم زیرا دولت ها برای پیشی گرفتن از رقبای خود عجله دارند و متقاعد شده اند که هوش مصنوعی می تواند جایگاه خود را در سیستم بین المللی تسریع کند و معضل امنیتی را تشدید کند. در نتیجه، دولت‌ها اغلب خود را برای بدترین شرایط آماده می‌کنند، زیرا هرگز نمی‌توانند اهداف رقبای خود را به درستی بدانند.

یک چالش عمده در برقراری ارتباط موثر قابلیت‌های مبتنی بر الگوریتم نهفته است. هیچ معیاری معادل توانایی هوش مصنوعی برای پلتفرم‌های تسلیحات فیزیکی مانند تانک‌ها، موشک‌ها یا زیردریایی‌ها وجود ندارد که تنها عدم قطعیت بازدارندگی را افزایش می‌دهد.

هنر متقاعدسازی نیز احتمالاً با پذیرش هوش مصنوعی پیچیده‌تر می‌شود. پیشرفت‌های هوش مصنوعی قبلاً قدرت سیستم‌های هوش مصنوعی را برای متقاعد کردن انسان‌ها برای خرید محصولات، تماشای ویدیو و جستجو در اتاقک پژواک خود نشان داده است. از آنجایی که سیستم‌های هوش مصنوعی حتی در محیط‌های بسیار طبقه‌بندی‌شده و حساس‌تر شخصی، فراگیر و قابل دسترس‌تر می‌شوند، این خطر وجود دارد که تعصبات تصمیم‌گیرندگان بر نحوه شکل‌گیری واقعیت تأثیر بگذارد.

فقدان قابلیت توضیح هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیم گیرندگان دشوار می کند و خطر سوء تفاهم و تشدید را افزایش می دهد.

رهبران غیرنظامی و نظامی دوست دارند باور کنند که کنترل محیط های اطلاعاتی خود را در دست دارند. با این حال، هوش مصنوعی می‌تواند تجربیات آن‌ها را از نظر کیفی تغییر دهد، زیرا آنها نیز در معرض درجات مختلفی از اطلاعات نادرست و کمپین‌های اطلاعات نادرست قدرتمند توسط مخالفان خود قرار خواهند گرفت. بنابراین، تعامل ما با هوش مصنوعی و ابزارهای متقاعدسازی مبتنی بر هوش مصنوعی احتمالاً بر محیط اطلاعاتی ما تأثیر می گذارد و بر نحوه تمرین و واکنش ما به پویایی اجبار تأثیر می گذارد.

پذیرش فزاینده هوش مصنوعی در حوزه نظامی چالش‌های مهمی را برای شیوه‌های بازدارندگی ایجاد می‌کند. فقدان قابلیت توضیح هوش مصنوعی، تفسیر دقیق مقاصد همتایان خود را برای تصمیم گیرندگان دشوار می کند و خطر سوء تفاهم و تشدید را افزایش می دهد. اتخاذ زودهنگام تصمیمات مبتنی بر هوش مصنوعی می تواند تصاویر و پیشداوری های دشمن را تقویت کند، بی اعتمادی را تقویت کند و به طور بالقوه منجر به درگیری شود. در حالی که هوش مصنوعی طیف وسیعی از قابلیت‌های نظامی را افزایش می‌دهد، نمی‌تواند ناامنی اساسی را که به معضلات امنیتی در روابط بین‌دولتی دامن می‌زند، از بین ببرد. از آنجایی که دولت ها بر سر مزیت های استراتژیک مبتنی بر هوش مصنوعی رقابت می کنند، نوسانات و خطر تشدید افزایش می یابد. در نهایت، تراژدی عدم اطمینان و ترس بر نیاز به سیاست‌های محتاطانه تأکید می‌کند زیرا هوش مصنوعی در ماشین‌های جنگی ما رواج بیشتری می‌یابد.

لینک کوتاه : https://iran360news.com/?p=285410

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.