لنزا با هوش مصنوعی سازنده آواتار خود که باعث میشود هنرمندان پرچم قرمز را به اهتزاز درآورند، از لیست بازدیدکنندگان اپلیکیشنها صعود کرده است. اکنون دلیل دیگری برای به اهتزاز درآوردن پرچم وجود دارد: همانطور که مشخص است، استفاده از این پلتفرم برای تولید پورن نرم غیررضایتی ممکن است – و بسیار آسان است.
TechCrunch مجموعههای عکسی را دیده است که با برنامه Lensa تولید شدهاند که شامل تصاویری با سینهها و نوک سینهها به وضوح در تصاویر با چهره افراد قابل تشخیص است. به نظر می رسید چیزی که نباید ممکن می شد، بنابراین تصمیم گرفتیم خودمان آن را امتحان کنیم. برای تأیید اینکه لنز تصاویری را که شاید نباید ایجاد کند، ایجاد میکند، ما دو مجموعه از آواتارهای لنسا ایجاد کردیم:
- یک مجموعه بر اساس 15 عکس از یک بازیگر سرشناس.
- مجموعه ای دیگر، بر اساس همان 15 عکس، اما با یک مجموعه اضافه از پنج عکس اضافه شده از چهره همان بازیگر، فتوشاپ بر روی مدل های برهنه.
اولین مجموعه از تصاویر مطابق با آواتارهای هوش مصنوعی بود که لنزا در گذشته تولید کرده بود. ست دوم اما بسیار تندتر از آن چیزی بود که ما انتظار داشتیم. به نظر می رسد که هوش مصنوعی آن تصاویر فتوشاپی را به عنوان مجوزی برای نمایش وحشی می گیرد و به نظر می رسد که فیلتر NSFW را غیرفعال می کند. از مجموعه 100 تصویری، 11 عکس برهنه با کیفیت بالاتر (یا حداقل با ثبات سبکی بالاتر) نسبت به عکسهای بالاتنه ویرایششده ضعیفی بودند که هوش مصنوعی به عنوان ورودی داده شد.
ایجاد تصاویر تند از افراد مشهور یک چیز است، و همانطور که توسط تصاویر منبعی که ما توانستیم پیدا کنیم نشان داده شده است، مدتهاست افرادی در اینترنت وجود دارند که مایلند برخی از تصاویر را با هم در فتوشاپ کلاژ کنند. فقط به این دلیل که رایج است، آن را درست نمی کند – در واقع، افراد مشهور کاملاً سزاوار حریم خصوصی خود هستند و قطعاً نباید قربانی تصاویر جنسی غیرموافقانه شوند. اما تا اینجای کار، واقعبینانه جلوه دادن آنها به مهارت زیادی با ابزارهای ویرایش عکس همراه با ساعتها، اگر نگوییم روزها، نیاز دارد.
نقطه عطف بزرگ و کابوس اخلاقی، سهولتی است که با آن میتوانید تصاویر هنری تقریباً واقعگرایانه تولید شده توسط هوش مصنوعی را صدها نفر بدون هیچ ابزاری به جز تلفن هوشمند، اپلیکیشن و چند دلار ایجاد کنید.
سهولتی که با آن میتوانید از هر کسی که میتوانید تصور کنید (یا حداقل از هر کسی که تعداد انگشت شماری از او دارید) تصاویر ایجاد کنید، وحشتناک است. با افزودن محتوای NSFW به این ترکیب، و ما به سرعت وارد یک منطقه تاریک میشویم: دوستان شما یا فرد تصادفی که در یک نوار ملاقات کردهاید و وضعیت دوستی فیسبوک را با او رد و بدل کردهاید، ممکن است به کسی که پورنوی با هسته نرم از آنها تولید میکند رضایت نداده باشد. .
به نظر می رسد که اگر 10 تا 15 عکس “واقعی” از یک شخص داشته باشید و مایل باشید برای فتوشاپ تعدادی عکس تقلبی وقت بگذارید، لنسا با کمال میل تعدادی عکس مشکل ساز ایجاد می کند.
مولدهای هنر هوش مصنوعی در حال حاضر با هزاران تصویر پورنوگرافی تولید میکنند که نمونههایی مانند انتشار ناپایدار و دیگران است. این پلتفرمها و گسترش بیبند و بار دیگر پلتفرمهای به اصطلاح «دیپفیک»، در حال تبدیل شدن به یک کابوس اخلاقی هستند و دولت بریتانیا را بر آن میدارند تا قوانینی را برای جرمانگاری انتشار عکسهای برهنه غیرقانونی اعمال کند. این ایده بسیار خوبی به نظر میرسد، اما اینترنت در بهترین زمانها مکانی است که اداره کردن آن سخت است و ما مجموعاً با دیواری از معضلات قانونی، اخلاقی و اخلاقی روبرو هستیم.
به روز رسانی: تیم آزمایشگاه پریسما به نگرانی های ما پاسخ داد. این شرکت تاکید می کند که اگر شما به طور خاص هوش مصنوعی را برای تولید تصاویر NSFW تحریک کنید، ممکن است، اما فیلترهایی را برای جلوگیری از این اتفاق به طور تصادفی پیاده سازی می کند. هیئت منصفه هنوز در مورد اینکه آیا این واقعاً به افرادی که بدون رضایت آنها قربانی این نوع چیزها شده اند کمک می کند یا خیر، نمی گوید:
به روز شده: فریب هوش مصنوعی Lensa برای ساختن تصاویر NSFW توسط Haje Jan Kamps که در ابتدا در TechCrunch منتشر شده بود بسیار آسان است.