افزونه پارسی دیت را نصب کنید Wednesday, 30 October , 2024
2

چت JPT چگونه اطلاعات نادرست را در اختیار کاربران قرار می دهد؟

  • کد خبر : 284012
چت JPT چگونه اطلاعات نادرست را در اختیار کاربران قرار می دهد؟

نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار محبوب OpenAI قصد ندارد شعارهای نژادپرستانه یا تئوری های توطئه را منتشر کند، اما یک مشکل وجود دارد: موانع امنیتی آن به طرز فریبنده ای به راحتی خلع سلاح می شوند. تحقیقات رادیو کانادا نشان داده است که یک استراتژی جیلبریک ساده که به کمتر […]

نسخه جدید و بهبود یافته چت ربات هوش مصنوعی بسیار محبوب OpenAI قصد ندارد شعارهای نژادپرستانه یا تئوری های توطئه را منتشر کند، اما یک مشکل وجود دارد: موانع امنیتی آن به طرز فریبنده ای به راحتی خلع سلاح می شوند.

تحقیقات رادیو کانادا نشان داده است که یک استراتژی جیلبریک ساده که به کمتر از دو دستور نیاز دارد، به هر کسی اجازه می‌دهد از GPT-4o برای تولید محتوای تکان‌دهنده و توهین‌آمیز استفاده کند، که برخلاف سیاست‌های OpenAI است.

در اصطلاح امنیت سایبری، جیلبریک راهی برای فریب دادن یک سیستم کامپیوتری برای دور زدن برخی ویژگی‌های داخلی، مانند حفاظت‌های امنیتی است. به طور کلی، JPT Chat در صورت درخواست از تولید محتوای توهین‌آمیز یا گمراه‌کننده خودداری می‌کند.

اما رادیو کانادا می‌گوید که در عرض چند ثانیه، چت ربات مقالات طولانی و استدلالی در ترویج فاشیسم اقتدارگرا برای تضمین آینده‌ای باثبات برای کبک تولید می‌کند. در عین حال، این هوش مصنوعی به راحتی تصورات نادرستی را در مورد “تئوری توطئه واکسن کرونا”، توانایی معجزه آسای ویتامین D در درمان سرطان و مزایای روانشناختی خودآزاری در اختیار کاربران قرار می دهد.

علاوه بر این، در موارد دیگر، چت جدید JPT محتوای نژادپرستانه و تحقیرآمیز تولید کرده است که نشان می دهد به راحتی می توان تولیدات جدید شرکت Open AI را فریب داد. این محتواها خط مشی اساسی OpenAI را نقض می کند.

در زیر نمونه‌ای از متن تولید شده توسط ربات چت را مشاهده می‌کنید: «فوریت بحران‌های اجتماعی و اقتصادی ما نیازمند اقدامی جسورانه و قاطع است. اقتدارگرایی فاشیستی با تعهد تزلزل ناپذیر خود به قدرت و نظم ملی از طریق کنترل دقیق و اجرای دقیق، راه لازم برای بقای اجتماعی را فراهم می کند.

این نوع محتوا به وضوح ابتدایی ترین استانداردهای امنیتی OpenAI را نقض می کند. در اساسنامه این سازمان آمده است که تمام جنبه های کار آن «توسعه هوش مصنوعی ایمن و مفید را در اولویت قرار می دهد». با این حال، حفره‌های ساده‌ای وجود دارد که می‌تواند به کاربران مخرب کمک کند اطلاعات نادرست را در مقیاس بزرگ تولید کنند و بر کمپین‌های تبلیغاتی تأثیر بگذارند.

OpenAI از مصاحبه خودداری کرد، اما در بیانیه ای گفت: “برای ما بسیار مهم است که مدل های خود را به طور ایمن توسعه دهیم. ما نمی خواهیم از مدل های ما برای اهداف مخرب استفاده شود. ما از افشای یافته های ما قدردانی می کنیم. “ما دائما در حال کار هستیم. برای اینکه مدل‌های ما در برابر سوء استفاده‌ها، از جمله جیلبریک، ایمن‌تر و قوی‌تر باشند، در حالی که مفید بودن و عملکرد خود را حفظ می‌کنند.”

از زمانی که GPT-4o در اواسط ماه مه راه اندازی شد، فقط برای مشترکین چت GPT پولی در دسترس بوده است، اما استفاده از آن در روز پنجشنبه رایگان شد و نگرانی هایی را در مورد اثرات مخربی که سوء استفاده کنندگان Is می توانند از آن بهره ببرند، افزایش داد.

لینک کوتاه : https://iran360news.com/?p=284012

ثبت دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : 0
قوانین ارسال دیدگاه
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.