ربات گفتگوگر Chatgpt این روزها به داغ حوزه فناوری تبدیل شده و به سمت استفاده از مصنوعی نیز بسیار مد شده است. پس از گوگل از سرویس تولید بر هوش مصنوعی بارد بارد مصنوعی. و روز بعد از این معرفی، تغییراتی را در ابزارهای هوش مکالمهای خود اعمال میکند و تنها محدودها برای آن در نظر گرفته میشوند! در ادامه قصد داریم موضوع را با هم مرور کنیم. با اسمارتک نیوز همراه باشید.
هوش مصنوعی بینگ اکنون محدودیتهایی دارد
مایکروسافت در تازهترین پست وبلاگی خود فاش کرد که مکالمات کاربران با بینگ را محدوی کرد. در حال حاضر، فقط کاربران میتوانند 50 سوال در روز و 5 سوال در هر جلسه بپرسند. این محدودیتها برای مقابله با گیج شدن بینگ در جریان مکالمات طولانی اعمال شدهاند!
مایکروسافت بر باور است که اکثر کاربران میتوانند پاسخ خود را به طور معمول در مورد (پرسیدن یک سؤال و یک جواب از بینگ) دریافت کنند و کمتر از 1 درصد به یک جلسه با 5 پیام نیاز دارند، بنابراین این تصمیم تصمیم میگیرد که تصمیم تصمیم بگیرد. محدود کردن مکالمه در عمل هیچ محدودیتی را پیش روی کاربران قرار نمیدهد.
پس از خود 5 سوال به پایان رسید از کاربر خواسته میشود تا موضوع دیگری صحبت کند و پایان نیز باید چتهای را پاک کند تا ربات مایکروسافت مایکروسافت گیج گیج نشود! البته، میگوید قصد دارد نهایتاً محدودیتهای چت را افزایش دهد تا تجربه را ارائه کند.
و اگر خود میپرسید که چگونه ممکن است چتهوش مصنوعی گیج شود باید اشاره کند که گزارشهای متعددی منتشر شده است که نشان میدهند ابزار جدید هوش مصنوعی بینگ شروع به مکالماتی عجیب و غریب و نسبتاً بیربط میکنند! به عنوان، در گزارش اخیر جدید تایمز یک مکالمه طولانی با بینگ شده است که در آن ربات در نهایت از عشق خود به کاربر سخن میگوید! یا گزارش از تلگراف نشان میدهد که وقتی بینگ خواسته متن را تبدیل کند، بعد از رد بدل کردن چند پیام، در ازای آن درخواست پول پول کرد!
حyal ، ddیd آیa thamemیm جdیd amaیکrusaفt baraی memحdudwd memکalemane beabزnah ahahnah ahahnah ahahnand bhathnad bhahnan چه جای پیشرفت دارد و چه بینگ جدید هنوز در راه است، انتظار داریم با زمان وضعیت آن بهتر شود.