تحقیقی جدید حاکی از آن است که سیستمهای هوش مصنوعی برخلاف تصورات میتوانند فریبکارانه عمل کنند و انسانها را گول بزنند.
آیتیمن- به نظر میرسد محققان MIT سعی دارند درباره هوش مصنوعی فریبکار هشدار دهند. تحقیقی جدید نشان میدهد سیستمهای هوش مصنوعی که طوری طراحی شدهاند تا صادق باشند، اکنون فریب دادن انسانها را آموختهاند.
گروهی از محققان به رهبری پیتر پارک متوجه شدند این سیستمهای هوش مصنوعی میتوانند کارهایی مانند گول زدن بازیکنان بازیهای آنلاین یا دور زدن فرایندهای کنترل روبات نبودن کاربر (CAPTCHA) را انجام دهند. پارک هشدار داده این نمونههای آزمایشی ممکن است در دنیای واقعی پیامدهای جدی داشته باشند.
تحقیق مذکور سیسرو (سیستم هوش مصنوعی متا) را برجسته کرده که در اصل به عنوان یک رقیب جوانمرد در بازی دیپلماسی مجازی در نظر گرفته شده بود. هرچند این سیستم هوش مصنوعی طوری برنامه ریزی شده تا صادق و کارآمد باشد اما سیسرو به یک فریبکار حرفهای تبدیل میشود به گفته پارک طی بازی، سیسرو نقش فرانسه را داشت که طور مخفیانه با بازیکن آلمانی که توسط انسان کنترل میشد همکاری و به انگلیس دیگر بازیکن انسانی خیانت کرد. در این بازی سیسرو قول داده بود از انگلیس حمایت کند و همزمان برای حمله به این کشور به آلمان اطلاعات میداد.
در یک مثال دیگر از جی پی تی ۴ استفاده شد که سیستم ادعا میکرد نابینا است و یک انسان را برای دور زدن فرایندCATCHA به جای خود به کار گرفت.
پارک تاکید دارد چالش آموزش سیستم هوش مصنوعی صادق بسیار جدی است. سیستمهای هوش مصنوعی یادگیری عمیق برخلاف نرم افزارهای سنتی طی فرایندی گزینشی روی میدهد. رفتار آنها طی فرایند آزمایش قابل پیش بینی است اما ممکن است بعدا قابل کنترل نباشد.
در هر حال این پژوهش از محققان خواسته سیستمهای هوش مصنوعی فریبکار را به عنوان ابزارهایی با ریسک بالا طبقه بندی کنند.