به گزارش اقتصادنیوز در این مطلب امده است: به طور کلی سیاست باید هنر متقاعدسازی باشد اما پروپاگاندا هیچگاه یقه سیاست را رها نکرده است. کمپینهای تبلیغاتی، حقیقت ها را پنهان می کنند، اغراق میکنند و دروغ میگویند. آنها اخبار دروغ را – ازدروغ های شاخدار گرفته تا مصلحتی – از طریق هر وسیلهای که در دسترس دارند، منتشر میکنند. یک زمانی، نظریه های توطئه ضد واکسن زمانی به جای پادکست از طریق بروشور تبلیغ می شد. یک قرن قبل از کووید 19، ضد ماسک ها در دوران آنفولانزای اسپانیایی یک کمپین اطلاعات نادرست به راه انداختند. آنها از طریق تلگراف، پیام هایی جعلی از طرف رئیس بهداری ارتش ارسال می کردند. چون مردم فرشته نیستند، انتخابات هیچ گاه عاری از دروغ و باورهای غلط نبوده است.
اکوایران در ادامه ترجمه این تحلیل آورده است: اما از آنجایی که جهان با چندین انتخابات در در سال 2024 روبه روست، چیز جدیدی باعث نگرانی بسیاری از مردم شده است. در گذشته، اطلاعات نادرست همیشه توسط انسان ها ایجاد می شد اما پیشرفت در هوش مصنوعی مولد – با مدلهایی که میتوانند مقالات پیچیده را تولید کند و تصاویر واقعی را از پیامهای متنی ایجاد کنند – پروپاگاندا بر پایه هوش مصنوعی را ممکن میسازد.
نگرانی این است که درست زمانی که کشورهایی از جمله آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان – که چهار میلیارد نفر از جمعیت جهان را تشکیل میدهند – برای انتخابات آماده می شوند، کمپین های اطلاعات نادرست در سال 2024 افزایش یابد. اما شهروندان چقدر باید نگران باشند؟
آیا باید نگران بود؟
مهم این است که در مورد آنچه که ابزارهای هوش مصنوعی مولد مانند چت جی پی تی تغییر میدهند و آنچه را که تغییر نمی دهند، دقیق و صریح باشیم. قبل از آمدن آنها نیز اطلاعات نادرست در دموکراسی ها یک مشکل اساسی بود. این ایده مخرب مبنی بر تقلب در انتخابات ریاست جمهوری آمریکا در سال 2020، آشوبگران را در ششم ژانویه به ساختمان کنگره کشاند اما این موضوع توسط دونالد ترامپ، رهبران حزب جمهوری خواه و رسانه های گروهی محافظه کار با استفاده از ابزارهای متداول و معمولی منتشر شد.
فعالان حزب بهاراتیا جاناتا (حزب حاکم) در هند شایعات را از طریق واتس اپ منتشر می کردند. پروپاگاندیست های حزب کمونیست چین از طریق رسانه های خبری به ظاهر مشروع، بحث های اصلی را به تایوان منتقل می کنند. همه اینها بدون استفاده از ابزارهای مولد هوش مصنوعی انجام شده است.
هوش مصنوعی چه چیزی را در انتخابات 2024 تغییر میدهد؟
مدل های زبان بزرگ در سال 2024 چه چیزی را می توانند تغییر دهند؟ یک مورد، کمیت اطلاعات نادرست است: اگر حجم مطالب بیهوده هزار برابر یا صد هزار برابر شود ، ممکن است مردم را متقاعد کند که رأی دیگری دهند. مورد دوم مربوط به کیفیت است. دیپفیکهای بیش از حد واقعی میتوانند رایدهندگان را قبل از اینکه از صدا، عکسها و ویدیوهای نادرست پرده برداشته شود، تحت تأثیر قرار دهد ( دیپ فیک یک فناوری بر مبنای هوش مصنوعی است که بهواسطه آن تصاویر و ویدیوهای دروغین اما واقع گرایانه درست میشود ).
سومین مورد، هدف گذاری خرد یا میکروتارگتینگ است ( میکروتارگتینگ شکلی از تبلیغات آنلاین است که طی آن تبلیغات به صورت هدفمند و شخصی سازی شده و بر اساس ویژگی ها و الگوهای رفتاری افراد طراحی میشوند). با هوش مصنوعی، رای دهندگان ممکن است غرق در تبلیغات بسیار شخصی سازی شده شوند. شناسایی رباتهای تبلیغاتی سختتر از پروپاگانداهای موجود خواهد بود.
هوش مصنوعی دموکراسی را نابود نخواهد کرد
این موارد نگرانکننده است، اما دلایلی وجود دارد که باور کنیم هوش مصنوعی آزمایش 2500 ساله بشریت با دموکراسی را نابود نمیکند. در واقع به طور کلی، متقاعد کردن رای دهندگان دشوار است، به خصوص در مورد موضوعات برجسته سیاسی مانند اینکه میخواهند که چه کسی رئیس جمهور شود. صنعت مبارزات انتخاباتی چند میلیارد دلاری در آمریکا که از انسان برای متقاعد کردن رأی دهندگان استفاده می کند، تنها می تواند تغییرات جزئی در رفتار آنها ایجاد کند.
ابزارهایی برای تولید تصاویر و متون جعلی قابل باور برای چندین دهه وجود داشته است. الگوریتمهای جدید تولید تصویر، اگرچه بسیار چشمگیر هستند، اما بدون دخالت انسان، همچنان مستعد تولید تصاویری از افراد با شش انگشت در هر دست هستند که همین موضوع امکان ساخت دیپفیکهای شخصیسازی شده را فعلاً دور از دسترس می کند. حتی اگر این تاکتیکهای تقویتشده با هوش مصنوعی مؤثر واقع شوند، به زودی توسط بسیاری ازحزب های علاقهمند به کار گرفته میشوند: اثر تجمعی این اتفاق این است که شبکههای اجتماعی را حتی بیمعنا و غیرقابل استفادهتر میکند.
پلتفرمهای رسانههای اجتماعی و شرکتهای هوش مصنوعی میگویند که بر روی خطرات متمرکز شدهاند. اوپن ای آی شرکت پشتیبان چت جی پی تی، میگوید که برای شناسایی عملیاتهای نفوذ سیاسی بر استفاده نظارت خواهد کرد.
پلتفرم های فناوری های بزرگ، که هم به دلیل انتشار اطلاعات نادرست در انتخابات 2016 و هم به دلیل انتخابات 2020 مورد انتقاد قرار گرفته اند، در شناسایی حسابهای مشکوک بهتر شدهاند. آلفابت و متا تبلیغات سیاسی را ممنوع کرده و می گویند که به سرعت به دیپ فیک ها پاسخ می دهند. شرکتهای دیگر در تلاش هستند تا استانداردی تکنولوژیکی ایجاد کنند که منشأ تصاویر و ویدیوهای واقعی را تعیین کند.
با این حال، رگولیشن های داوطلبانه محدودیتهایی دارد و نظارت های غیر داوطلبانه خطراتی را به همراه دارد. مدلهای منبع باز مانند لیاما که متن تولید میکند و استیبل دیفوژن که تصاویر را میسازد، میتوانند بدون نظارت مورد استفاده قرار گیرند. تیک تاک با دولت چین ارتباط دارد. توییتر (که اکنون X نامیده می شود) پس از خرید توسط ایلان ماسک، تیم نظارتی خود را کاهش داده است که به بهشتی برای بات ها تبدیل شده است.
آژانس تنظیم کننده انتخابات در آمریکا در حال بررسی یک الزام برای افشای کمپین هایی است که از تصاویر تولید شده توسط مصنوعی استفاده می کنند. این معقول است، اگرچه بازیگران بدخواه از آن پیروی نخواهند کرد. برخی در آمریکا خواستار یک سیستم مقررات افراطی به سبک چین هستند. در چین ، الگوریتمهای هوش مصنوعی باید در یک نهاد دولتی ثبت شوند و به نوعی ارزشهای سوسیالیستی اصلی را شامل شوند. چنین کنترل سنگینی مزیت آمریکا در نوآوری هوش مصنوعی را از بین می برد.
سیاست هرگز پاک نبوده است
اگرچه مهم است که به پتانسیل هوش مصنوعی مولد برای برهم زدن دموکراسی ها توجه داشته باشیم، اما وحشت بی مورد است. قبل از پیشرفت های تکنولوژیکی در دو سال گذشته، مردم همچنان کاملاً قادر به انتقال هر گونه ایده مخرب و وحشتناک به یکدیگر بودند. مبارزات انتخاباتی ریاست جمهوری آمریکا در سال 2024 توسط اطلاعات نادرست در مورد حاکمیت قانون و یکپارچگی انتخابات مخدوش خواهد شد اما دلیل آن نه چیزی جدید مانند چت جی پی تی بلکه آقای ترامپ خواهد بود.