اگرچه هوش مصنوعی امروزه به روند اصلی فناوری تبدیل شده و کاربردهای مختلفی را به کاربران ارائه میدهد، اما درعینحال میتواند مشکلات و خطراتی را نیز ایجاد کند.
آیتیمن- با ظهور هوش مصنوعی بهعنوان یک روند اصلی در فناوری، میتوان گفت تواناییها و خطرات احتمالی آن بهطور موازی رو به افزایش است. در حال حاضر تفکری وجود دارد که انسانها و جوامع توسط ماشینهای همهچیزدان نابود خواهند شد. از طرفی نیز بسیاری از مردم قدردان هوش مصنوعی و بهبودهایی که میتواند برای تمدن ایجاد کند هستند.فناوری یادگیری ماشین (ML) به مجموعه دادههای عظیم نیاز دارد. در بسیاری از سیستمهای دنیای واقعی مانند اتومبیلهای خودران، ترکیبی پیچیده از سنسورهای بینایی رایانهای، برنامهنویسی پیچیده برای تصمیمگیری آنی و روباتیک موردنیاز است. اما در مقابل مشاغلی که از هوش مصنوعی استفاده میکنند، استقرار آن سادهتر است اما نکتهای که وجود دارد این است که هوش مصنوعی میتواند به اطلاعات و کارکردهای مختلف سیستم دسترسی پیدا کرده و درنتیجه خطرات جدی ایجاد کند. بنابراین قبل از اتخاذ این فناوری باید همه جوانب در نظر گرفته شود.سوگیری تصادفی در سیستمهای هوش مصنوعی چیز جدیدی نیست و برنامه نویسان یا مجموعه دادههای خاص میتوانند آن را محصور کنند. متأسفانه اگر این سوگیری منجر به اتخاذ تصمیمات ضعیف و حتی تبعیضآمیز شود، درنتیجه باعث ایجاد پیامدهای قانونی و خسارت به شهرت آن مجموعه میشود. برای مثال بسیاری از سیستمهای تشخیص چهره و هوش مصنوعی تبعیض نژادی قائل میشوند و افراد سیاهپوست را تشخیص نمیدهند. این نوع سوگیری همچنین موجب پیشبینی اشتباه میشود و هوش مصنوعی نمیتواند تصمیمات دقیقی بگیرد.ایجاد نظارت انسانی و آزمایش دقیق سیستمهای هوش مصنوعی میتواند خطرات را در مرحله طراحی کاهش دهد. این امر همچنین با رصد دقیق آن سیستمها در هنگام کار، امکانپذیر است. تواناییهای تصمیمگیری سیستمهای هوش مصنوعی باید اندازهگیری و ارزیابی شود تا اطمینان حاصل شود که سوگیری نوظهور یا تصمیمگیری مشکوک بهسرعت رسیدگی میشود.اگرچه این تهدیدها مبتنی بر خطاهای ناخواسته و شکست در طراحی و اجرا است، اما هنگامیکه افراد قصد دارند سیستمهای هوش مصنوعی را از کار بیندازند یا آنها را بهعنوان سلاح بهکار گیرند، مجموعه دیگری از خطرات ظاهر میشود.گمراه کردن سیستمهای هوش مصنوعی میتواند به طرز نگرانکنندهای آسان باشد! مهاجمان سایبری میتوانند مجموعه دادهها را برای آموزش هوش مصنوعی دستکاری کنند، تغییرات نامحسوسی در پارامترهای و الگوریتمهای طراحیشده دقیق انجام دهند تا هرگونه سوءظن نادیده گرفته شود و درعینحال هوش مصنوعی را بهآرامی در جهت موردنظرشان هدایت کنند.در جایی که مهاجمان موفق به دسترسی به مجموعه دادهها نمیشوند، آنها ممکن است از گریز (دستکاری در ورودیها که منجر به اشتباهات شدید میشود) استفاده کنند. درنتیجه شناسایی سخت میشود.اگرچه ممکن است بررسی صحت دادهها و ورودیها امکانپذیر نباشد، اما باید تلاش شود تا دادهها از منابع معتبر و قابلاطمینان جمعآوری شود. همچنین هوش مصنوعی باید طوری تقویت شود تا بتواند ورودیهای مخرب را شناسایی کند. علاوه بر این سیستمهای هوش مصنوعی باید به مکانیسمهای پیشگیرانه مجهز شود که در صورت وقوع اشتباه یا عدم عملکرد صحیح، خاموش کردن آن بهراحتی انجام گیرد.
چگونه هوش مصنوعی تبدیل به سلاح میشود؟
مجرمان سایبری همچنین میتوانند از هوش مصنوعی برای اثربخشی حملات اجتماعی خود استفاده کنند. درواقع هوش مصنوعی میتواند تشخیص الگوهای رفتاری را کشف کند و بفهمد چگونه میتوان مردم را به قانونی بودن یک ویدئو، تماس تلفنی یا ایمیل متقاعد کرد. سپس میتواند مردم را ترغیب کند که با شبکهها تعامل کنند و دادههای حساس را تحویل دهند. البته تمام تکنیکهای اجتماعی که مجرمان سایبری در حال حاضر به کار میگیرند با استفاده از هوش مصنوعی میتوانند به میزان قابلتوجهی بهبود یابند.برای مثال یکی از حملات سایبری که به کمک هوش مصنوعی اتفاق افتاد، حمله هکری به سایت تسک ربیت (TaskRabbit) در سال ۲۰۱۸ بود. طی این حمله 3.75 میلیون کاربر این وبسایت در آوریل ۲۰۱۸ تحت تأثیر قرار گرفتند و هویت و اطلاعات حساب بانکی آنها سرقت شد.
در سال ۲۰۱۹ نیز دو حمله هکری توسط برخی هکرها علیه اینستاگرام انجام شد. این حملات که به کمک هوش مصنوعی صورت گرفت، حساب برخی افراد هک شد و اطلاعات و تصویر نمایه آنها تغییر یافت. در دیگر مورد رمزعبور حساب برخی افراد در صفحه آنها به نمایش گذاشته شد.