در سال 1945، درست قبل از آزمایش اولین بمب هسته ای در صحرای نیومکزیکو در ایالات متحده، انریکو فرمی، یکی از فیزیکدانانی که روی این بمب کار می کرد، با دانشمندان دیگرش شرط بندی کرد. آیا گرمای بی سابقه انفجار باعث آتش سوزی هسته ای در جو می شود؟ اگر چنین است، آیا طوفان آتش فقط نیومکزیکو را نابود می کند یا کل جهان را نابود می کند؟ البته، آن آزمایش به اندازه قمارهای شیطنت آمیز فرمی بی پروا نبود. فیزیکدان دیگری به نام هانس بته محاسبه کرد که چنین جهنمی تقریباً غیرممکن خواهد بود.
این روزها، نگرانی در مورد “تهدیدهای وجودی” – یعنی تهدیدهایی که تهدیدی جدی برای کل نژاد بشر به عنوان یک گونه (نه انسان به عنوان افراد) هستند – به دانشمندان نظامی محدود نمی شود. جنگ هستهای، زمستان هستهای، بیماریهای جهانی (چه طبیعی مانند کووید-19 یا طراحیشده)، برخورد سیارکها با زمین و بسیاری موارد دیگر میتواند بیشتر انسانها یا حتی کل نژاد بشر را بکشد.
به گزارش اکونومیست، امروزه آخرین تهدید آخرالزمانی برای بشریت، هوش مصنوعی (AI) و پایان جهان و نسل بشر به دست این فناوری است. در ماه می، گروهی از چهرههای برجسته در زمینه هوش مصنوعی نامهای سرگشاده امضا کردند که در آن آمده بود: «کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای جهانی و جنگ هستهای یک اولویت جهانی باشد.» “
اما چقدر منطقی است که در این مورد نگران باشیم؟ در 10 ژوئیه، گروهی از محققان، از جمله ازرا کارگر، اقتصاددان در شیکاگو فدرال رزرو، و فیلیپ تتلاک، دانشمند علوم سیاسی در دانشگاه پنسیلوانیا، مقاله ای را منتشر کردند که سعی دارد با بررسی سیستماتیک دو گروه مختلف به این سوال پاسخ دهد. کارشناسان . . سوال را دریافت کنید
در یک طرف تحقیقات، کارشناسانی در حوزه مورد بحث یا «حوزه ویژه» در جنگ هستهای، سلاحهای بیولوژیکی، هوش مصنوعی و حتی خود موضوع «انقراض» حضور داشتند و از سوی دیگر، گروهی از «حرفهایها». “. superforecasters” یا پیش بینی همه منظوره با پیش بینی های دقیق در مورد انواع موضوعات مختلف، از نتایج انتخابات تا شروع جنگ های مختلف.
محققان در مجموع 89 ابر پیش بینی کننده، 65 متخصص حوزه و 15 متخصص “در معرض خطر” را انتخاب کردند. دو نوع مختلف بلایا برای ارزیابی به داوطلبان ارائه شد. فاجعه به عنوان “فاجعه طبیعی ناگهانی” تعریف می شود که تنها 10 درصد از جمعیت انسانی جهان یا حدود 800 میلیون نفر را می کشد. برای مقایسه، تخمین زده می شود که جنگ جهانی دوم حدود 3 درصد از جمعیت 2 میلیاردی جهان را کشته است. از سوی دیگر، “انقراض” به عنوان رویدادی تعریف شد که همه انسان ها را به استثنای 5000 فرد خوش شانس (یا بدشانس) از بین می برد.
اگر باید برویم همه با هم می رویم
از دو گروه خواسته شد تا درباره احتمال وقوع همه چیز، از رویدادهای پایانی مانند انقراض ناشی از هوش مصنوعی یا جنگ هستهای گرفته تا سؤالات کوچکتر، از جمله پیشرفتهای هشداردهنده در قابلیتهای هوش مصنوعی که میتواند به عنوان علائم جادهای به سوی یک فاجعه در آینده رخ دهد، فکر کنند. در آینده، پیش بینی هایی ارائه کنید.
بارزترین یافته این مطالعه این بود که کارشناسان موضوع، که اغلب بر گفتگوهای عمومی در مورد خطرات وجودی تسلط دارند، آینده را بسیار تاریکتر از پیشبینیکنندگان فوقالعاده میبینند. کارشناسان تخمین زدند که احتمال وقوع یک بلای طبیعی تا سال 2100 حدود 20 درصد و احتمال انقراض انسان حدود 6 درصد است. پیش بینی ها برای این رویدادها احتمالات 9 و 1 درصد را در نظر گرفتند.
این شکاف گسترده جزئیات جالبی را پنهان می کند. دو گروه بیشترین اختلاف نظر را در شناسایی خطرات ناشی از هوش مصنوعی داشتند. به طور متوسط، پیش بینی کنندگان تخمین زدند که تا پایان قرن، احتمال یک فاجعه ناشی از هوش مصنوعی 2.1 درصد و احتمال انقراض ناشی از هوش مصنوعی 0.38 درصد است. از سوی دیگر کارشناسان حوزه هوش مصنوعی به ترتیب احتمال 12 و 3 درصد را برای این دو رویداد قائل شدند. وقتی نوبت به تولد می رسید، ابر پیش بینی ها بیشتر از کارشناسان در مورد خطرات بیماری های طبیعی بدبین بودند.
مقایسه نتایج دو گروه از متخصصان و کارشناسان
شاید جالب ترین نتیجه این بود که اگرچه دو گروه در مورد سطح دقیق خطر اختلاف نظر داشتند، اما هر دو هوش مصنوعی را به عنوان مهمترین نگرانی در هنگام فکر کردن به فجایع یا انقراض رتبه بندی کردند. دن مریلند، پیشبینیکنندهای که در این مطالعه شرکت کرد، معتقد است که یکی از دلایل خطرناکتر بودن هوش مصنوعی این است که بهعنوان «ضریبافزاینده نیرو» روی تهدیدات دیگر مانند سلاحهای هستهای عمل میکند.
در صورت وقوع یک جنگ هسته ای یا برخورد یک سیارک، هوش مصنوعی (مثلاً به شکل ربات های مسلح) می تواند انسان ها را مستقیماً به سمت مرگ بفرستد. همچنین ممکن است در تیزکردن تبر سایر جلادان نقش داشته باشد. برای مثال، اگر انسانها از هوش مصنوعی برای طراحی سلاحهای بیولوژیکی قویتر استفاده کنند، هوش مصنوعی اساساً، هرچند غیرمستقیم، در این فاجعه نقش دارد.
ابر پیش بینی ها، در حالی که نسبت به هوش مصنوعی بدبین بودند، تا حدودی در مورد آن مطمئن نبودند. جهان تقریباً 80 سال است که با سلاح های هسته ای سر و کار دارد. این واقعیت که جنگ هسته ای کامل هنوز رخ نداده است داده های ارزشمندی را ارائه می دهد که ممکن است در پیش بینی های آینده در مورد احتمال آن مفید باشد. اصطلاح هوش مصنوعی، حداقل به معنای فعلی آن، بسیار جدیدتر است. ظهور مدلهای یادگیری ماشینی قدرتمند امروزی به اوایل دهه 2010 برمیگردد. این حوزه هنوز به سرعت در حال توسعه و گسترش است. که داده های بسیار کمتری برای پیش بینی باقی می گذارد.
دکتر تتلوک، به ویژه، کارهای زیادی در مورد مشکل پیش بینی آینده انجام داده است. او اولین کسی بود که “ابر هواشناسان” را شناسایی و نام برد. افرادی که به نظر می رسد موفقیت غیرعادی در پیش بینی آینده دارند. این افراد چندین ویژگی مشترک دارند، مانند تفکر دقیق بر اساس آمار و آگاهی از سوگیری های شناختی که می تواند آنها را گیج و گمراه کند. علیرغم فقدان تخصص خاص، ابر پیش بینی ها دارای سابقه عملکرد بهتر از کارشناسان در بسیاری از زمینه های فنی دیگر، از امور مالی گرفته تا ژئوپلیتیک هستند.
به نظر میرسد که اختلاف نظر بین گروهها تا حدی نشاندهنده تفاوت در مدلهای آنها از نحوه عملکرد جهان است. خطرات فاجعه بار نه تنها به پیچیده یا قدرتمند بودن یک فناوری، بلکه به نحوه واکنش انسان ها به آن نیز بستگی دارد. به عنوان مثال، پس از ترس از جنگ هسته ای در آغاز جنگ سرد، ایالات متحده و اتحاد جماهیر شوروی، دو قدرت اصلی هسته ای در جهان، شروع به همکاری با یکدیگر کردند. دو قدرت جهانی با ابتکاراتی مانند ایجاد «خطوط تماس داغ» بین مسکو و واشنگتن، توافقنامههایی برای بازرسی تسلیحات یکدیگر و معاهداتی که برای محدود کردن حجم ذخایر طراحی شدهاند، به کاهش خطرات جنگ هستهای کمک کردهاند.
اما ظاهراً ابر پیشبینیکنندگان و کارشناسان هوش مصنوعی دیدگاههای بسیار متفاوتی در مورد نحوه واکنش جوامع به آسیبهای کوچک هوش مصنوعی داشتند. ابر پیش بینی ها فکر می کردند که چنین آسیبی باعث بررسی دقیق تر و مقررات سختگیرانه تر برای رسیدگی به مشکلات بزرگتر پیش رو می شود. در مقابل، کارشناسان در این زمینه تمایل داشتند فکر کنند که انگیزه های تجاری و ژئوپلیتیک ممکن است بر نگرانی های امنیتی غلبه کند، حتی پس از آسیب واقعی.
ابر پیش بینی ها و کارشناسان نیز در مورد حدود هوش نظرات متفاوتی داشتند. کریستی مورل، یکی دیگر از ابر پیش بینی کنندگان شرکت کننده در این مطالعه، به سادگی معتقد است که “کشتن همه انسان ها به این راحتی نیست.” او خاطرنشان می کند که انجام این کار احتمالاً مستلزم داشتن “قدری توانایی برای تعامل با دنیای فیزیکی است. ما احتمالاً قبل از رسیدن به آن نقطه به پیشرفت زیادی در دنیای رباتیک نیاز داریم.”
البته مشکل اصلی این نوع پیش بینی این است که برخلاف رویدادهای مکرر و کم ریسک (مانند پیش بینی حرکت قیمت سهام در بورس یا نتیجه انتخابات)، هرگز راهی وجود نخواهد داشت. برای دانستن اینکه کدام بخش به تشخیص سطح واقعی ریسک نزدیکتر است. اما اگر ابر پیشبینیکنندگان آنقدر در پیشبینی خوب باشند و متخصصان رشتهشان اطلاعات کافی از موضوع داشته باشند، حداقل میتوان انتظار داشت که این دو گروه بر باورهای یکدیگر تأثیر بگذارند.
پیش بینی آینده
مطالعه محققان تلاش کرد تا با ایجاد اجماع گروهی، انگیزه های مالی برای استدلال بهتر و موارد دیگر، گروه ها را تشویق کند تا یکدیگر را متقاعد کنند. با این حال، ممکن است تعجب آور باشد که هر دو طرف به نظرات خود پایبند هستند. یکی از متخصصان هوش مصنوعی «ناتوانی در بازتاب و تبادل نظر» را مشکل اصلی دانست. به عبارت دیگر، هر دو طرف به سادگی از همه پیش بینی پذیری هایی که از آنها خواسته می شد خسته شده بودند.
تغییر عقیده، یا “به روز کردن مفروضات” همانطور که پیش بینی ها آنها را می گویند، ممکن است با شواهد جدید آسان تر باشد. در نتیجه، دکتر کارگر و تتلاک امیدوارند که شواهدی جمع آوری کنند. آنها از شرکت کنندگان در مطالعه خود خواستند به سؤالاتی در مورد مجموعه ای از “شاخص های هشدار اولیه” پاسخ دهند. معیارهایی که نشان می دهد آیا جهان در راه یک سناریوی فاجعه بار است یا خیر.
به عنوان مثال، میزان توان محاسباتی مورد استفاده در برنامه های آموزشی بزرگ هوش مصنوعی می تواند در ردیابی پیشرفت کلی این حوزه مفید باشد. عامل دیگر ممکن است سرنوشت نهایی معاهدات کنترل تسلیحات هسته ای باشد. انتظار میرود این پرسشهای کوتاهمدت، که برخی از آنها تا سالهای 2024 و 2030 پاسخ داده میشوند، به ما ایده دهند که کدام گروهها جدیتر هستند و در نتیجه چقدر باید نگران باشیم.
۵۸۵۸