هوش مصنوعی روزها به سوژهای داغ در دنیای دنیای فناوری میشود و این پتانسیل را با ایجاد تحول و متقابل همهجانبه، از جنبههای زندگی انسانها را به شدت افزایش میدهد. اما، با این حال مانند هر فناوری دیگری، هوش مصنوعی هم کاملاً بدون خطر نیست. در حال حاضر دو مورد متفاوت در مورد هوش مصنوعی و خطرات آن وجود دارد. از یک تحقیق در مورد خطر بالقوه خطرناک میدهند و از سوی دیگر بسیاری ادعا میکنند که این بیمورد بیمورد هستند و هیچ خطری در آینده نزدیک از سویی وجود مصنوعی مصنوعی وجود ندارد.
بنابراین، سوالی ابهامی که ممکن است برای ایجاد این موضوع زیاد باشد آیا در هوش مصنوعی مصنوعی است یا خیر؟ خیر؟ برای روشنتر شدن، در این مقاله از رو رو داریم پنج اصل اصلی را بیان کرده و فناوری فناوری در هر یک از این بخشها تشریح تشریح است. پس در ادامه با ما همراه باشید.
چگونه مصنوعی میتواند خطرناک باشد؟
هوش مصنوعی به روز پیچیدهتر میشود و این میتواند خطراتی خفیف خفیف از بین یا تغییر برخی عوامل انسانی را به خطر بیاندازد تا خطرات فاجعهبار را در پیش داشته باشد. سطح خطری ممکن است از سوی هوش مصنوعی ما انسانها را کند، بسیار مورد بحث است در حال حاضر درک عمومی واحد (و جماع) در مورد این فناوری وجود
مثلا:
- از هوش مصنوعی برای انجام کارهای مخرب استفاده شود.
- با وجود هوش مصنوعی به گونهای برنامهریزی شده که باشد، اما ممکن است در این صورت ناخواسته مخ کاری را نیز انجام دهد.
این خطرات با پیچیده تر شدن نرم افزارهای مصنوعی مصنوعی هم می شوند. جالب است که یک استدلال فرضی کلاسیک با نام بیشینهسازی گیره کاغذ کاغذ کاغذ کاغذ نیز این مورد مطرح است. در این فکر، چنین بیان میشود که فرضیه یک هوش مصنوعی فوقهوشمند برای رساندن تعداد گیرههای کاغذ در جهان برنامهریزی شده باشد. اگر این مصنوعی به اندازه کافی هوشمند باشد، برای رسیدن به این هدف کل جهان نابود شود!
اما، حال حاضر مقایسه هوش مصنوعی واقعی با فناوری فوق هوشمندی به نظر درست نیست، نمیتوانم خطرات را از هوش مصنوعی مصنوعی طبیعی ربط داد. بنابراین، این واقعگراتر بوده و به آن دسته خطراتی میرسد که هم اکنون ما را تهدید میکند.
1. اتوماسیون و از بین رفتن کار
اتوماسیون یا کارها یکی از خطرات هوش مصنوعی است جامعه انسانی را تحت تاثیر قرار داده است. از کارخانه های بزرگ تا خودروهای خودران، فرآیند اتوماسیون است که این روند را به روز در حال تسریع آغاز می کند. مطالعه موسسه بروکینگز در 2019 نشان داد که به پیشرفت اتوماسیون 36 میلیون شغل در سالهای آینده در معرض خطر قرار دارد.
موضوع اصلی این است که در بسیاری از کارها، سیستمهای هوش مصنوعی بهتر از عمل انسان عمل میکنند. آنها ارزانتر، کارآمدتر و دقیقتر از نیروی انسانی هستند. به عنوان مثال هوش مصنوعی مدتهاست که در جعل آثار هنری میشود و بهتر از متخصصان عمل انسانی میشود. در تازهترین نیز از این فناوری در تشخیص تومورها از تصاویر رادیوگرافی استفاده میشود که نتایج بسیار خوبی دارد.
بیشتر بخوانید:
- چرا هوش مصنوعی نمیتواند جای انسان را در محیط کار بسازد؟
با پیشرفت هوش مصنوعی برخی از انسانها از خواهند رفت، اما در مقابل رشتههای شغلی ایجاد خواهند شد. اما مشکل این است که با تغییرات شغلی از اتوماسیون، از شغلی که شغلی را از دست میدهند، دلیلی وجود ندارد، واجد واجد شرایط یا شرایطی است که در ساخت مصنوعی مصنوعی میشود.
همانطور که هوش مصنوعی به پیشرفت خود ادامه میدهد در انجام کارها نیز ماهرتر از انسانها میشود. این فناوری در تشخیص الگوها و یا ارائه پیشبینیها دقیق باشد و در نتیجه، تغییرات ناشی از آن میتواند باعث افزایش نابرابری اجتماعی شود و حتی ممکن است فاجعه فاجعه اقتصادی را به دنبال داشته باشد.
2. امنیت و حریم خصوصی
در سال 2020، دولت گزارشی را درباره هوش مصنوعی و عامل آن امنیت ملی بریتانیا کرد که در آن بر ضرورت استفاده از هوش مصنوعی در امنیت امنیت سایبری بریتانیا برای شناسایی و کاهش خطرهایی که سرعت سرعت بیشتری نسبت به توانایی های خود دارند، می شود. بود.
در واقع موضوعی است که باید در کنار نگرانیهای امنیتی بر روی گیاهان، پیشگیرانهای بر روی مصنوعی نیز افزایش مییابد. تا زمانی که نمی توانم از خود در برابر خطرات هوش مصنوعی ایجاد کنیم، بیشتر بتوانیم از این فناوری ببریم، از آن آسیب دیدم.
از طرف دیگر، این سوال نیز مطرح میشود که چگونه سیستمهای مصنوعی مصنوعی را انجام دهند اگر از هوش مصنوعی برای دفاع در برابر استفاده از میکنیم، باید مطمئن شد که خود مصنوعی در برابر مخاطرهها ایمن باشد. به عبارت، اگر امنیت امنیت خود را مصنوعی میسپاریم، باید از خود این فناوری باشد و در آن مجرمان نباشد، همچنان باقی خواهد ماند.
وقتی صحبت حریم خصوصی به میان میآید، پیش از این هم شرکتها و دولتهای خاطرهای از حریم خصوصی استفاده از فناوری بودند و این با ظهور مصنوعی مصنوعی میتوانند بسیار بدتر شوند. با وجود بسیار بالای دادههای شخصی که در حال حاضر به صورت آنلاین در دسترس است (روزانه 2.5 میلیون ترابایت ایجاد میشود)، الگوریتمهای هوشمند مصنوعی میتوانند به راحتی برای هر کاربر یک پروفایل ایجاد و به عنوان مثال برای ایجاد فوق العاده انجام دهند. هدفمند استفاده کنند.
تشخیص چهره در حال حاضر بسیار پیچیده و دوربینها میتوانند در زمان واقعی و بدون هیچ وقفهای شناسایی شوند. برخی از افراد در سراسر جهان از عینکهای هوشمند نرمافزار تشخیص چهره استفاده میکنند به راحتی میتوانند مجرمان تحت تعقیب مظنونین مظنونین را شناسایی و برچسبگذاری کنند.
با استفاده از کاربردهای مصنوعی مصنوعی در نگاه اول بسیار به میرسند اما وقتی میتوان فناوریهای فناوریهای فوقالعاده را در افراد اختیاری و گروههای خرابکار خرابکار قرار داد، تصویر کرد. مطمئناً در استفادههای مفیدی که هوش مصنوعی میتواند وجود داشته باشد، ممکن است در جهت حریم خصوصی کاربران وجود داشته باشد.
3. بدافزارهای ایجاد بر هوش مصنوعی
هوش مصنوعی در کارکردهای مفید خود، بهطوری که در سیستمهای هک کردن و شکستن رمز عبور بهتر و بهتر میشود. یکی از مواردی که این اتفاق میافتد، از طریق «تکامل» بدافزارها به کمک کمک میآیند. به این که بدافزارها میتوانند از طریق آزمون و یاد بگیرند که چه جواب میدهد و چه روشهایی کار نمیکند. به این ترتیب، این بدافزارها به مرور زمان خطرناکتر میشوند.
در این، فناوریهای هوشمند جدیدتر مانند خودروهای خودران به طور بالقوه یک پرخطر برای این نوع هدف میشوند. چرا که خرابکار به کمک توسعه بدافزارهای ایجاد بر مصنوعی قادر خواهند بود ایجاد تصادف یا شوند. در عین حال که هر روز بیشتر و بیشتر به ارتباط هوشمند به اینترنت وابسته میشویم، همه ما بیشتر تحت تأثیر این مشکل قرار خواهند گرفت.
باز هم تنها راه حل واقعی برای مقابله با خطر است که هوش مصنوعیهای بدافزار برای محافظت از کارمندان از هوش هوشی به کار در بدافزارها بدافزارها بهتر است عمل کنند.
4. سلاحهای خودمختار
سلاحهای خودمختار یعنی سلاحهایی که به جای نیروهای انسانی، سیستمهای هوش مصنوعی، مدتی است که طراحی شدهاند و کارشناس فناوری از سازمانهای خواستهشدهاند تا راههایی برای محافظت از بشریت در برابر این سلاحها ایجاد شود.
ارتشهای دولتی در جهان در حال حاضر به سیستمهای مختلف بر هوش یا کنترل میشوند مانند پهپادهای نظامی دسترسی دارند. پیشرفتها در این حتی به حدی بوده است که با نرم افزار تشخیص، پهپادها میتوانند یک فرد خاص را ردیابی کنند.
حال به نظر شما چه اتفاقی میافتد وقتی به هوش مصنوعی اجازه بدهیم تا هیچگونه رفتار انسانی در مورد مرگ و زندگی افراد تصمیم بگیریم!
همچنین به کمک مصنوعی امکان سفارشی کردن فناوریهای مصرفی (مانند هواپیماهای بدون) برای مستقل و انجام خودکار برخی کارها وجود دارد. اینها اگر در دست افراد خرابکار باشند، امنیت مردم جهان را به صورت مداوم تحت تأثیر قرار میدهند.
5. دیپ فیک، اخبار جعلی و امنیت سیاسی
نرم افزار تغییر فناوری می شود (بیشتر به عنوان دیپ شناخته می شود) با این فیک محدودیت ها وجود ندارد اما در حال حاضر از آن بیشتر افراد مشهور رهبران جهان را تحت تاثیر قرار می دهد و به نظر میرسد میرسد که تعداد زیادی باقی مانده است تا افراد عادی را نیز داشته باشد. به عنوان مثال، در حال حاضر قادرند تنها با یک عکس پروفایل ساده، ویدیوهایی ساخته شده و به وسیله آنها اقدام به باجگیری و کلاهبرداری از افراد میکنند.
اما این تنها خطر دیپ فیک نیست. هوش مصنوعی را میسازد و میتواند کند، بنویسد، صداها را کند و به طور خودکار تبلیغات هدف تولید کند. قبلاً هم که برخی از این خطرات چگونه میتوانند به شکلی قابل توجه بر جامعه تأثیرگذار باشند.
کاهش خطرات ناشی از هوش مصنوعی
با افزایش پیچیدگی و ساختهای هوش مصنوعی، پیشرفتهای مثبت در حال آن. اما متأسفانه، فناوریهای نوظهور و همیشه قدرتمند در خطر خطر استفاده از قرار دا. این خطرات بر جنبههای زندگی روزمره ما، حریم خصوصی گرفته شده تا سیاسی و اتوماسیون شغلی، تاثیر میگذارد.
اولین قدم خطرات ناشی از هوش مصنوعی این است که تصمیم بگیریم در کجا میخواهیم از استفاده از روشهای مصنوعی استفاده کنیم و از آن جلوگیری کنیم. افزایش تحقیقات و در مورد سیستمهای هوش مصنوعی و در این زمینه اولین در جهت جلوگیری از سوء استفادههای احتمالی خواهد بود.
نظر شما چیست؟ آیا هوش را یک خطر بالقوه برای جامعه انسانی میدانید فکر میکنید بیشتر از مضراتش بود؟ نظرات خود حتماً از طریق بخش کامنتها در انتهای مطلب با ما و سایر خوانندگان دیجی در میان میآیند.