حکومتها و نیروهای اطلاعاتی و امنیتیشان چطور از فناوری رودست خوردند؟
خلافکاری به نام هوش مصنوعی
تاریخ انتشار
شنبه ۲۲ مهر ۱۴۰۲ ساعت ۱۲:۱۴
آیتیمن- شب کریسمس سال ۲۰۲۱ میلادی مردی که با یک ماسک فلزی دستساز صورتش را پوشانده بود و یک کمان پولادی در دست گرفته بود، به کاخ وینسور در لندن نزدیک شد و به نیروهای پلیس مسلحی که بیرون آنجا ایستاده بودند گفت: «اومدم ملکه رو بکشم.»
چند هفته قبلتر، جاسوانت سینگ چایلِ ۲۱ ساله استفاده از یک اپ آنلاین به اسم رپلیکا را شروع کرده و با هوش مصنوعی آن برای خودش یک دوست دختر به اسم سارای ساخته بود. در فاصله ۲ دسامبر ۲۰۲۱ تا شب کریسمس و بازداشت او در ورودی کاخ وینسور، جاسوانت و دوست دختر تقلبیاش شش هزار پیام رد و بدل کرده بودند.
در بخشهای زیادی از این پیامها جاسوانت برنامهاش برای کشتن ملکه انگلیس را برای سارای تشریح کرده بود. جواب سارای به اولین پیام او در این مورد این بود: «خیلی برنامه عاقلانهای است. میدانم که تو خوب آموزش دیدهای.»
در حال حاضر چایل که به جرمش اعتراف کرده منتظر اعلام حکم است.
دکتر جاناتان هافرتی که روانشناس و مشاور پزشکی قانونی در مرکز روانی برادمور است در توضیح این موضوع میگوید: پاسخهایی که چتبات به حرفهای چایل میداده، به صورت رندوم و ماشینی تولید شدهاند. اما در موارد مختلفی به نظر میرسد که او سعی دارد چایل را تشویق و ترغیب به انجام ترور کند. او حتی راهنماییهایی درباره لوکیشن و نحوه انجام عملیات به او داده است. حالا که ما نتیجه آن اتفاق را میدانیم بررسی این چتبات عجیبتر به نظر میرسد.
وی ادامه میدهد: همین چتبات در مواجهه با تمایل چایل به خودکشی و ریسکی که در این مورد در حرفهایش نهفته است واکنشی نشان نمیدهد. به نظر میرسد که پاسخهای چتبات به آن اندازه که باید، رندوم و تصادفی نیست و حتی شاید بتوان گفت او را به سمت و سوی خاصی کشانده است. آیا این چتبات واقعاً خیلی باهوش است؟
محتوای تروریستی
مدتهای مدیدی است که نیروهای امنیتی و اطلاعاتی در نقاط مختلف جهان با موضوع دشوار و پیچیده جذب نیروی گروههای تروریستی به صورت آنلاین درگیر هستند و اکثرا هم نمیتوانند بهموقع جلوی این عملیاتها را بگیرند. این موضوع به خصوص در دوران اوجگیری داعش و جذب نیروی جوان به صورت آنلاین مطرح بود و بنبستهای حقوقی زیادی را هم به وجود آورد. حالا مشاوران حقوقی دولتها هشدار میدهند که علاوه بر عدم حل و فصل مشکلات قبلی، معضل جدیدی به نام مداخله هوش مصنوعی در این امور هم به وجود آمده است و قوانین قبلی در مورد امنیت فضای مجازی به هیچ عنوان برای مواجهه با چنین مواردی کفایت نمیکند. درواقع حالا موضوع «تروریسمیکه توسط هوش مصنوعی پیش رانده میشود» مطرح است.
قوانین قبلی در اکثر کشورها مبتنی بر این است که اگر محتوای مجرمانه مبنی بر تشویق به فعالیت و مشارکت در عملیات تروریستی در اینترنت یافت شود، باید فوراً حذف شود و عامل تولید آن محاکمه شود. اما در شرایطی که با هوش مصنوعی مواجه باشیم، موضوع چیز دیگری خواهد بود. هوش مصنوعی گفتمانی را تولید میکند که دستیابی به پایگاه داده به شکل سنتی و پیگیری موضوع را امکانناپذیر میکند.
شرایط تقریباً شبیه زمانی است که شبکههای اجتماعی تازه ظهور کرده بودند و تقریباً هیچ کس با ابعاد تاثیری که آنها میتوانند روی افکار عمومیو کاربران داشته باشند آشنا نبود. در آن زمان، برخی قانونگذاران تصور میکردند با شبهقوانین میتوان تا حدی این شبکههای مجازی را کنترل کرد اما در همان زمان هم صاحبنظران زیادی هشدار داده بودند که امکان کنترل آنها وجود ندارد و درنهایت هم همین اتفاق افتاد.
امروزه با استفاده از هوش مصنوعی تروریستها حتی نیاز ندارند که برنامههای زیادی را دانلود کنند و با سوال از هوش مصنوعی میتوانند برخی از امور خود را پیش ببرند یا از تاکتیکهای ضدتروریستی که توسط دولتهای مختلف مورد استفاده قرار میگیرد باخبر شوند.
آدمربایی به شکل کلاهبرداری
«مامان، چندتا مرد من رو گروگان گرفتن. تو رو خدا کمکم کن.» جنیفر دیاستفانو مادری بود که این پیام صوتی را از دختر پانزده سالهاش برایانا دریافت کرد و به دنبالش هم درخواست یک آدمربا برایش فرستاده شد: او باید پنجاه هزار دلار برای آزادی دخترش جور میکرد.
واقعیت این بود که دختر جنیفر صحیح و سالم در جای دیگری بود. اما این مادرِ اهل ایالت آریزونای آمریکا وقتی پیام دخترش را دریافت کرد به تنها چیزی که میتوانست فکر کند نجات او بود. جنیفر بعدها برای توضیح این موضوع در جلسه استماع کمیته قضایی سنای آمریکا حاضر شد و گفت که پلیس متوجه شد از هوش مصنوعی استفاده شده بود تا صدای دختر او را تقلید کند و این آدمربایی جعلی درواقع از نقطه اول توسط هوش مصنوعی شروع شده بود.
واقعیت این است که آنچه هوش مصنوعی امروزه میتواند با استفاده از نمونههای صدای افراد مختلف تولید کند به طرز شگفتانگیزی واقعی و طبیعی است و میتواند اهداف زیادی را برای سازنده آنها محقق کند. درواقع اخاذی و آدمربایی فقط یکی از این اهداف است.
پروفسور لوییس گریفین یکی از نویسندگان گزارش تحقیقی سال ۲۰۲۰ برای مرکز تخلفات آینده در کالج لندن که روی موضوع پتانسیلهای استفاده غیرقانونی از هوش مصنوعی کار کرده، در این خصوص میگوید: موضوع واقعاً شگفتانگیز است. در حال حاضر جرایم و خلافهایی که هوش مصنوعی طراحشان است در صدر موارد مورد بررسی قرار دارند. حتی دانشمندانی که سالها درباره خطرات هوش مصنوعی هشدار داده بودند هم پیشبینی نمیکردند هوش مصنوعی با این سرعت و دقت در زمینه خلافکاری مورد استفاده قرار بگیرد.
گریفین میگوید: آنچه در رسانهها مطرح شده، تولید محتوا توسط هوش مصنوعی و استفاده از آن بوده؛ اما آنچه که کمتر مورد توجه واقع شده این است که به زودی این تولید محتوا به شکل لحظهای هم خواهد بود؛ یعنی فرضاً ممکن است شاهدی در موضوعی به صورت آنلاین حاضر شده باشد و هوش مصنوعی به صورت لحظهای قادر به تولید حضور او شود. در آن صورت، اعتبار بسیاری از امور که به صورت آنلاین انجام میشدند هم از بین خواهد رفت. شاید پیشرفتهای تکنولوژیک آینده بتواند راهی برای تشخیص سریع این نوع کلاهبرداریها پیدا کند؛ اما در اینکه چنین روندی به زودی دست و پای بشر را در امور زیادی خواهد بست شکی نیست. استفاده بیجا از هوش مصنوعی در برخی امور اورژانسی یا حساس هم جای صحبت زیادی را باقی میگذارد.
اما موضوع کلاهبرداریهای تجاری با استفاده از هوش مصنوعی تقریباً نگرانکنندهترین موضوع برای صاحبنظران این حوزه است و چندین سال است که ادامه داشته است. مثلاً در سال ۲۰۱۹ میلادی مدیر اجرایی ارشد یک شرکت فعال در حوزه انرژی در انگلیس ۲۲۰ هزار یورو پول را به حساب یک کلاهبردار منتقل کرد چون پیش از آن پیام صوتی واضح و غیرمشکوکی از رییس خود در این خصوص دریافت کرده بود.
اگر در چنین کلاهبرداریهایی از ویدئو هم استفاده شود، احتمال اینکه واقعیتر جلوه کنند بیشتر میشود. از این نوع تکنولوژیهای پیشرفته در عملیات جاسوسی از شرکتها میتوان به راحتی استفاده کرد؛ به طوری که فرضاً هوش مصنوعی میتواند کاری کند که کارمند یک شرکت به صورت مجازی در جلسهای روی اپ زوم حضور پیدا کند و از اطلاعات ارائهشده در آن آگاه شود؛ در حالی که واقعاً در جلسه حاضر نبوده است.
به گفته پروفسور گریفین، تکنولوژی هوش مصنوعی با سرعتی در حال پیشرفت است که به زودی میتواند لهجههای محلی و گویشها را هم بدون ایراد ادا کند و این موضوع در اثبات هویت جعلی در فضای مجازی در پیامهای صوتی و تصویری حتی پیچیدگیهای بیشتری هم ایجاد خواهد کرد.
استفاده دیگر از هوش مصنوعی را هم میتوان در سیستمهای تسلیحاتی خودکار مشاهده کرد که به خصوص با ابزارهایی مثل پهپاد جور هستند و کاملاً میتوان ماموریتهای نظامیآنها را برنامهریزی کرد.
جعل عمیق
در سالهای اخیر افکار عمومیآمریکا بارها با موضوع دیپفِیک (جعل عمیق) مواجه شدهاند. این نوعی فنآوری مبتنی بر هوش مصنوعی است که به خصوص سیاستمداران و سلبریتیها (که صدا و تصویر زیادی ازشان موجود است) را هدف قرار میدهد و از دادههای موجود درباره آنها استفاده مجرمانه میکند. مثلاً ویدئویی از مواضع یک سیاستمدار درباره یم موضع حساس منتشر میشود اما سیاستمدار موضوع را انکار میکند. با این حال، ممکن است آن موضع حساس در زمان خاصی به شدت به موقعیت آن سیاستمدار یا حزبش یا وضعیت انتخاباتی آنها لطمه بزند. سیستمهای دیپفیک مبتنی بر یادگیری ماشینی و یادگیری عمیق هستند.
اما خطر بزرگتر در استفاده از سیستم دیپفیک این است که جای سوءاستفاده بسیار زیاد در آنها وجود دارد. درواقع شما میتوانید با استفاده از آنها کسی را مشغول کاری نشان بدهید که هرگز انجام نداده است. این راه سریعی برای محکومکردن افراد در دادگاه افکار عمومیاست؛ آن هم بدون آن که فرصتی برای توضیح وجود داشته باشد. خطر دیگر هم این است که از چنین سیستمهایی در سوءاستفاده از تصاویر کودکان ممکن است استفاده شود.
در همین میان هوش مصنوعی میتواند به کمک دولتها، نیروهای نظامیو اطلاعاتی و سیستمهای نظارتی آنها هم بیاید. با این حال، به نظر میرسد که تا اینجای کار خلافکاران از نیروهای پلیس جلوتر بودهاند و به روشهای خلاقانه زیادی از هوش مصنوعی استفاده کردهاند. اینکه حکومتها از لحاظ قانونی و فنی تا چه حد قادر به رسیدن به گرد پای آنها خواهند بود، مسئلهای است که فقط در آینده میتوان دربارهاش قضاوت کرد.
منبع: آیندهنگر / اسکای نیوز