کسبوکارها و سایر سازمانها در بریتانیا، اگرنتوانند تصمیمات گرفته شده در سازمانشان به وسیله هوش مصنوعی توجیه کنند؛ با جریمه چند میلیون پوندی مواجه خواهند شد.
آیتیمن- دفتر کمیسیون اطلاعات بریتانیا (ICO) اعلام کرد شرکتهایی که از
هوش مصنوعی استفاده میکنند؛ نخستین بار باید درباره این فرایندهایی مانند استفاده واحد منابع انسانی از
یادگیری ماشین برای پالایش درخواستهای کار بر اساس تحلیل رزومه افراد، توضیح بدهند. این نهاد تنظیم مقررات گفت که این نخستین بار در جهان است که برای اخذ تصمیمات با هوش مصنوعی قواعدی تنظیم شده است.
بررسیهای بانک انگلستان نشان میدهد که در حدود دو سوم از شرکتهای خدمات مالی در بریتانیا برای اتخاذ تصمیماتشان از هوش مصنوعی استفاده میکنند. از جمله میتوان به استفاده از هوش مصنوعی در شرکتهای بیمه برای مدیریت شکایات اشاره کرد. بررسی دیگری که کمیسیون اطلاعات بریتانیا انجام داده نیز حاکی است که نیمی از مردم این کشور درباره سپردن تصمیمها به هوش مصنوعی نگرانی دارند.
پیشتر نیز بارها منتقدان از محققان هوش مصنوعی خواسته بودند که جعبه سیاه الگوریتمهای هوش مصنوعی و یادگیری ماشین را بازکنند که مشخص شود، تصمیمات این الگوریتمها بر اساس چه منطقی گرفته میشود.
برخی منتقدان حتی هوش مصنوعی را یک فناوری کافکایی میدانند و میگویند مانند اتفاقاتی که در رمان «محاکمه» کافکا میافتد، هوش مصنوعی نیز تصمیماتی میگیرد که نه دلایل اتخاذ این تصمیمات مشخص است و نه سیستم در مقابل تصمیماتش پاسخگوست. این منتقدان معتقدند: از آنجا که سیستمهای هوش مصنوعی را انسانها طراحی میکنند؛ نظر و خطاهای شناختی انسانی در آنها تکرار و برجسته میشود؛ با این تفاوت که سیستم مسوولیتی در مقابل تصمیماتش ندارد و این، وضعیت را پیچیده میکند.
در یکی دو سال گذشته، گزارشهای متعددی حاکی از این بود که استفاده از هوش مصنوعی در فرایند پالایش فرمهای استخدامی از طریق بررسی رزومه، موجب حذف ناعادلانه اقلیتهای قومیتی یا جنسیتی شده است. حتی
استفاده از الگوریتمهای یادگیری ماشین در خودرانها نیز مشکلات مشابهی ایجاده کرده است.
سایمون مک دوگال، مدیر اجرایی بخش سیاستهای فناوری و نوآوری ICO میگوید: این تصمیم کاملا در جهت شفافسازی گرفته شده و جعبه سیاه توضیحپذیری هوش مصنوعی را باز میکند و حق مردم برای دریافت توضیح درباره تصمیمات را تقویت میکند.
دستورالعمل مذکور که روز گذشته فرایندهای مشاورهای را پشت سر گذاشته، به سازمانها آموزش میدهد که چگونه به زبانی همه فهم، درباره تصمیمات هوش مصنوعی اطلاع رسانی کنند و برای سازمانها و شرکتهایی که در این زمینه درست عمل نکنند، بر اساس قانون محافظت از دادههای اتحادیه اروپا، جریمهای تا 4 درصد گردش مالیشان در نظر گرفته شده است.
مک دوگال میگوید: اینکه شرکتها بگویند زمان یا پول کافی برای تشریح تصمیمات هوش مصنوعی ندارند، بهانهای غیر قابل پذیرش است. اگر شرکتها برای تفکر و تنظیم قواعد مناسب درباره شیوه استفاده از هوش مصنوعی، منابع کافی ندارند باید درباره استفاده از این الگوریتمها تجدیدنظر کنند.
پیشبینی میشود که این دستورالعمل که با همکاری موسسه آلن تورینگ تهیه شده، از سال آینده میلادی به اجرا گذاشته شود.