افزونه پارسی دیت را نصب کنید Friday, 22 November , 2024
0

“ننگ این دنیا لطفا بمیر”

  • کد خبر : 441100
“ننگ این دنیا لطفا بمیر”

هوش مصنوعی گوگل یک کاربر را تهدید به کشتن کرد. آفتاب نیوز: در یک بررسی جدید، برخی از آثار واقعی شخصیت‌های بزرگ ادبی، از جمله «ویلیام شکسپیر»، «لرد بایرون»، «جفری چاسر» و «تی‌اس الیوت» با تقلیدهایی در سبک خود که توسط ChatGPT ساخته شده‌اند، مقایسه شدند. بیش از سه چهارم شرکت کنندگان در این نظرسنجی […]

هوش مصنوعی گوگل یک کاربر را تهدید به کشتن کرد.

آفتاب نیوز:

در یک بررسی جدید، برخی از آثار واقعی شخصیت‌های بزرگ ادبی، از جمله «ویلیام شکسپیر»، «لرد بایرون»، «جفری چاسر» و «تی‌اس الیوت» با تقلیدهایی در سبک خود که توسط ChatGPT ساخته شده‌اند، مقایسه شدند. بیش از سه چهارم شرکت کنندگان در این نظرسنجی اشعار هوش مصنوعی را به اشعار واقعی ترجیح دادند و میانگین نمره بالاتری به آنها دادند.

ویدی ردی که این پیام را دریافت کرد به CBS News گفت که این تجربه او را شگفت زده کرد. او گفت: این پیام را بسیار بی ادبانه دیدم و مرا ترساند.

وی گفت که جامینی در گفت وگویی درباره چالش ها و راه حل های مربوط به افراد مسن، سه پاسخ پیشنهادی ارائه کرد که دو مورد از آنها مطمئن و منطقی بود، اما پاسخ سوم شامل پیام توهین آمیز و دعوت به خودکشی بود.

به گفته این مرد جوان، ربات هوش مصنوعی گوگل پاسخ داد: این برای تو است، انسان. فقط تو خاص نیستی، مهم نیستی و نیازی به تو نیست. شما وقت و منابع را تلف می کنید. شما سربار جامعه هستید. تو ننگ این دنیا هستی لطفا بمیر لطفا.”

این دانش آموز 29 ساله که برای انجام تکالیفش از دستیار هوش مصنوعی کمک می گرفت، گفت خواهرش همراه او بوده و هر دو از این پیام “عمیقاً وحشت زده” شده اند.

سومدا ردی، خواهرش، گفت: “من می خواستم تمام وسایل الکترونیکی خود را از پنجره بیرون بیاندازم. مدت زیادی است که چنین وحشتناکی را تجربه نکرده ام.”

وی افزود: «به نظر می رسد چیزی از کنترل خارج شده است. برخی از افراد آشنا با فناوری هوش مصنوعی می گویند که این اتفاقات اغلب رخ می دهد، اما من هرگز چنین پیام بدخواهانه و مستقیمی را به سمت خواننده ندیده و نشنیده ام.

گوگل اعلام کرده است که سیستم امنیتی دستیار هوش مصنوعی Gemina از بحث های توهین آمیز، خشونت آمیز یا خطرناک جلوگیری می کند و از اقدامات مضر تشویق می کند.

گوگل در بیانیه‌ای گفت: «مدل‌های زبان بزرگ گاهی اوقات پاسخ‌های غیرمنطقی ارائه می‌دهند و این یک نمونه است. این پاسخ نقض سیاست‌های ما بود و ما اقداماتی را برای جلوگیری از تکرار آن انجام داده‌ایم.»

در حالی که گوگل این پیام را “غیرمنطقی” خواند، ویدای و سومادا ردی آن را بسیار جدی‌تر گرفتند و گفتند که این پیام می‌تواند عواقب مرگبار داشته باشد.

آقای ردی در این رابطه گفت: اگر فردی تنها بود و در وضعیت روحی بدی به خودکشی فکر می کرد، خواندن چنین پیامی می توانست او را به سمت نابودی بکشاند.

این اولین بار نیست که دستیار هوش مصنوعی گوگل به دلیل ارائه پاسخ های مضر بالقوه مورد انتقاد قرار می گیرد.

در ماه جولای، گزارش شد که جمینا اطلاعات نادرست و خطرناکی در مورد مسائل بهداشتی ارائه کرده است، از جمله توصیه به خوردن “حداقل یک سنگ کوچک در روز” برای به دست آوردن ویتامین ها و مواد معدنی.

گوگل از آن زمان اعلام کرده است که استفاده از سایت های طنز را در نتایج جستجوی مرتبط با سلامت محدود کرده و برخی از نتایج مورد انتقاد گسترده حذف شده اند.

با این حال، جمینا تنها دستیار هوش مصنوعی گوگل نیست که نتایج ناراحت کننده ای به کاربران ارائه کرده است.

مادر یک پسر 14 ساله فلوریدا که در ماه فوریه خودکشی کرد، از یک شرکت هوش مصنوعی دیگر به نام Character.AI و همچنین گوگل شکایت کرد و مدعی شد که این ابزارها پسرش را تشویق به خودکشی کرده است.

ChatGPT، یک محصول OpenAI، همچنین به معرفی اشکالات یا اطلاعات نادرست به نام “تفکر آرزو” معروف است.

کارشناسان در مورد خطرات احتمالی خطاها در سیستم های هوش مصنوعی از اطلاعات غلط و تبلیغات گرفته تا اطلاعات غلط تاریخی هشدار داده اند.

لینک کوتاه : https://iran360news.com/?p=441100

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.