افزونه پارسی دیت را نصب کنید Saturday, 23 November , 2024
6

کلید آخرین جنگ جهانی کیست؟

  • کد خبر : 27276
کلید آخرین جنگ جهانی کیست؟

در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که روی این بمب کار می کرد، با دانشمندان دیگرش شرط بندی کرد. آیا گرمای بی سابقه انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش […]

در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که روی این بمب کار می کرد، با دانشمندان دیگرش شرط بندی کرد. آیا گرمای بی سابقه انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش فقط نیومکزیکو را نابود می کند یا کل جهان را نابود می کند؟ البته، آن آزمایش به اندازه قمارهای شیطنت آمیز فرمی بی پروا نبود. فیزیکدان دیگری به نام هانس بته محاسبه کرد که چنین جهنمی تقریباً غیرممکن خواهد بود.

این روزها، نگرانی در مورد “تهدیدهای وجودی” – یعنی تهدیدهایی که تهدیدی جدی برای کل نژاد بشر به عنوان یک گونه (نه انسان به عنوان افراد) هستند – به دانشمندان نظامی محدود نمی شود. جنگ هسته‌ای، زمستان هسته‌ای، بیماری‌های جهانی (چه طبیعی مانند کووید-19 یا طراحی‌شده)، برخورد سیارک‌ها با زمین و بسیاری موارد دیگر می‌تواند بیشتر انسان‌ها یا حتی کل نژاد بشر را بکشد.

به گزارش اکونومیست، امروزه آخرین تهدید آخرالزمانی برای بشریت، هوش مصنوعی (AI) و پایان جهان و نسل بشر به دست این فناوری است. در ماه می، گروهی از چهره‌های برجسته در زمینه هوش مصنوعی نامه‌ای سرگشاده امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های جهانی و جنگ هسته‌ای یک اولویت جهانی باشد.» “

اما چقدر منطقی است که در این مورد نگران باشیم؟ در 10 ژوئیه، گروهی از محققان، از جمله ازرا کارگر، اقتصاددان در شیکاگو فدرال رزرو، و فیلیپ تتلاک، دانشمند علوم سیاسی در دانشگاه پنسیلوانیا، مقاله ای را منتشر کردند که سعی دارد با بررسی سیستماتیک دو گروه مختلف به این سوال پاسخ دهد. کارشناسان . . سوال را دریافت کنید

در یک طرف تحقیقات، کارشناسانی در حوزه مورد بحث یا «حوزه ویژه» در جنگ هسته‌ای، سلاح‌های بیولوژیکی، هوش مصنوعی و حتی خود موضوع «انقراض» حضور داشتند و از سوی دیگر، گروهی از «حرفه‌ای‌ها». “. superforecasters” یا پیش بینی همه منظوره با پیش بینی های دقیق در مورد انواع موضوعات مختلف، از نتایج انتخابات تا شروع جنگ های مختلف.

محققان در مجموع 89 ابر پیش بینی کننده، 65 متخصص حوزه و 15 متخصص “در معرض خطر” را انتخاب کردند. دو نوع مختلف بلایا برای ارزیابی به داوطلبان ارائه شد. فاجعه به عنوان “فاجعه طبیعی ناگهانی” تعریف می شود که تنها 10 درصد از جمعیت انسانی جهان یا حدود 800 میلیون نفر را می کشد. برای مقایسه، تخمین زده می شود که جنگ جهانی دوم حدود 3 درصد از جمعیت 2 میلیاردی جهان را کشته است. از سوی دیگر، “انقراض” به عنوان رویدادی تعریف شد که همه انسان ها را به استثنای 5000 فرد خوش شانس (یا بدشانس) از بین می برد.

اگر باید برویم همه با هم می رویم

از دو گروه خواسته شد تا درباره احتمال وقوع همه چیز، از رویدادهای پایانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هسته‌ای گرفته تا سؤالات کوچک‌تر، از جمله پیشرفت‌های هشداردهنده در قابلیت‌های هوش مصنوعی که می‌تواند به عنوان علائم جاده‌ای به سوی یک فاجعه در آینده رخ دهد، فکر کنند. در آینده، پیش بینی هایی ارائه کنید.

بارزترین یافته این مطالعه این بود که کارشناسان موضوع، که اغلب بر گفتگوهای عمومی در مورد خطرات وجودی تسلط دارند، آینده را بسیار تاریک‌تر از پیش‌بینی‌کنندگان فوق‌العاده می‌بینند. کارشناسان تخمین زدند که احتمال وقوع یک بلای طبیعی تا سال 2100 حدود 20 درصد و احتمال انقراض انسان حدود 6 درصد است. پیش بینی ها برای این رویدادها احتمالات 9 و 1 درصد را در نظر گرفتند.

این شکاف گسترده جزئیات جالبی را پنهان می کند. دو گروه بیشترین اختلاف نظر را در شناسایی خطرات ناشی از هوش مصنوعی داشتند. به طور متوسط، پیش بینی کنندگان تخمین زدند که تا پایان قرن، احتمال یک فاجعه ناشی از هوش مصنوعی 2.1 درصد و احتمال انقراض ناشی از هوش مصنوعی 0.38 درصد است. از سوی دیگر کارشناسان حوزه هوش مصنوعی به ترتیب احتمال 12 و 3 درصد را برای این دو رویداد قائل شدند. وقتی نوبت به تولد می رسید، ابر پیش بینی ها بیشتر از کارشناسان در مورد خطرات بیماری های طبیعی بدبین بودند.

مقایسه نتایج دو گروه از متخصصان و کارشناسان

شاید جالب ترین نتیجه این بود که اگرچه دو گروه در مورد سطح دقیق خطر اختلاف نظر داشتند، اما هر دو هوش مصنوعی را به عنوان مهمترین نگرانی در هنگام فکر کردن به فجایع یا انقراض رتبه بندی کردند. دن مریلند، پیش‌بینی‌کننده‌ای که در این مطالعه شرکت کرد، معتقد است که یکی از دلایل خطرناک‌تر بودن هوش مصنوعی این است که به‌عنوان «ضریب‌افزاینده نیرو» روی تهدیدات دیگر مانند سلاح‌های هسته‌ای عمل می‌کند.

در صورت وقوع یک جنگ هسته ای یا برخورد یک سیارک، هوش مصنوعی (مثلاً به شکل ربات های مسلح) می تواند انسان ها را مستقیماً به سمت مرگ بفرستد. همچنین ممکن است در تیزکردن تبر سایر جلادان نقش داشته باشد. برای مثال، اگر انسان‌ها از هوش مصنوعی برای طراحی سلاح‌های بیولوژیکی قوی‌تر استفاده کنند، هوش مصنوعی اساساً، هرچند غیرمستقیم، در این فاجعه نقش دارد.

ابر پیش بینی ها، در حالی که نسبت به هوش مصنوعی بدبین بودند، تا حدودی در مورد آن مطمئن نبودند. جهان تقریباً 80 سال است که با سلاح های هسته ای سر و کار دارد. این واقعیت که جنگ هسته ای کامل هنوز رخ نداده است داده های ارزشمندی را ارائه می دهد که ممکن است در پیش بینی های آینده در مورد احتمال آن مفید باشد. اصطلاح هوش مصنوعی، حداقل به معنای فعلی آن، بسیار جدیدتر است. ظهور مدل‌های یادگیری ماشینی قدرتمند امروزی به اوایل دهه 2010 برمی‌گردد. این حوزه هنوز به سرعت در حال توسعه و گسترش است. که داده های بسیار کمتری برای پیش بینی باقی می گذارد.

دکتر تتلوک، به ویژه، کارهای زیادی در مورد مشکل پیش بینی آینده انجام داده است. او اولین کسی بود که “ابر هواشناسان” را شناسایی و نام برد. افرادی که به نظر می رسد موفقیت غیرعادی در پیش بینی آینده دارند. این افراد چندین ویژگی مشترک دارند، مانند تفکر دقیق بر اساس آمار و آگاهی از سوگیری های شناختی که می تواند آنها را گیج و گمراه کند. علیرغم فقدان تخصص خاص، ابر پیش بینی ها دارای سابقه عملکرد بهتر از کارشناسان در بسیاری از زمینه های فنی دیگر، از امور مالی گرفته تا ژئوپلیتیک هستند.

به نظر می‌رسد که اختلاف نظر بین گروه‌ها تا حدی نشان‌دهنده تفاوت در مدل‌های آن‌ها از نحوه عملکرد جهان است. خطرات فاجعه بار نه تنها به پیچیده یا قدرتمند بودن یک فناوری، بلکه به نحوه واکنش انسان ها به آن نیز بستگی دارد. به عنوان مثال، پس از ترس از جنگ هسته ای در آغاز جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی، دو قدرت اصلی هسته ای در جهان، شروع به همکاری با یکدیگر کردند. دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس داغ» بین مسکو و واشنگتن، توافق‌نامه‌هایی برای بازرسی تسلیحات یکدیگر و معاهداتی که برای محدود کردن حجم ذخایر طراحی شده‌اند، به کاهش خطرات جنگ هسته‌ای کمک کرده‌اند.

اما ظاهراً ابر پیش‌بینی‌کنندگان و کارشناسان هوش مصنوعی دیدگاه‌های بسیار متفاوتی در مورد نحوه واکنش جوامع به آسیب‌های کوچک هوش مصنوعی داشتند. ابر پیش بینی ها فکر می کردند که چنین آسیبی باعث بررسی دقیق تر و مقررات سختگیرانه تر برای رسیدگی به مشکلات بزرگتر پیش رو می شود. در مقابل، کارشناسان در این زمینه تمایل داشتند فکر کنند که انگیزه های تجاری و ژئوپلیتیک ممکن است بر نگرانی های امنیتی غلبه کند، حتی پس از آسیب واقعی.

ابر پیش بینی ها و کارشناسان نیز در مورد حدود هوش نظرات متفاوتی داشتند. کریستی مورل، یکی دیگر از ابر پیش بینی کنندگان شرکت کننده در این مطالعه، به سادگی معتقد است که “کشتن همه انسان ها به این راحتی نیست.” او خاطرنشان می کند که انجام این کار احتمالاً مستلزم داشتن “قدری توانایی برای تعامل با دنیای فیزیکی است. ما احتمالاً قبل از رسیدن به آن نقطه به پیشرفت زیادی در دنیای رباتیک نیاز داریم.”

البته مشکل اصلی این نوع پیش بینی این است که برخلاف رویدادهای مکرر و کم ریسک (مانند پیش بینی حرکت قیمت سهام در بورس یا نتیجه انتخابات)، هرگز راهی وجود نخواهد داشت. برای دانستن اینکه کدام بخش به تشخیص سطح واقعی ریسک نزدیکتر است. اما اگر ابر پیش‌بینی‌کنندگان آنقدر در پیش‌بینی خوب باشند و متخصصان رشته‌شان اطلاعات کافی از موضوع داشته باشند، حداقل می‌توان انتظار داشت که این دو گروه بر باورهای یکدیگر تأثیر بگذارند.

پیش بینی آینده

مطالعه محققان تلاش کرد تا با ایجاد اجماع گروهی، انگیزه های مالی برای استدلال بهتر و موارد دیگر، گروه ها را تشویق کند تا یکدیگر را متقاعد کنند. با این حال، ممکن است تعجب آور باشد که هر دو طرف به نظرات خود پایبند هستند. یکی از متخصصان هوش مصنوعی «ناتوانی در بازتاب و تبادل نظر» را مشکل اصلی دانست. به عبارت دیگر، هر دو طرف به سادگی از همه پیش بینی پذیری هایی که از آنها خواسته می شد خسته شده بودند.

تغییر عقیده، یا “به روز کردن مفروضات” همانطور که پیش بینی ها آنها را می گویند، ممکن است با شواهد جدید آسان تر باشد. در نتیجه، دکتر کارگر و تتلاک امیدوارند که شواهدی جمع آوری کنند. آنها از شرکت کنندگان در مطالعه خود خواستند به سؤالاتی در مورد مجموعه ای از “شاخص های هشدار اولیه” پاسخ دهند. معیارهایی که نشان می دهد آیا جهان در راه یک سناریوی فاجعه بار است یا خیر.

به عنوان مثال، میزان توان محاسباتی مورد استفاده در برنامه های آموزشی بزرگ هوش مصنوعی می تواند در ردیابی پیشرفت کلی این حوزه مفید باشد. عامل دیگر ممکن است سرنوشت نهایی معاهدات کنترل تسلیحات هسته ای باشد. انتظار می‌رود این پرسش‌های کوتاه‌مدت، که برخی از آن‌ها تا سال‌های 2024 و 2030 پاسخ داده می‌شوند، به ما ایده دهند که کدام گروه‌ها جدی‌تر هستند و در نتیجه چقدر باید نگران باشیم.

۵۸۵۸

لینک کوتاه : https://iran360news.com/?p=27276

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.