یووال نوح هراری، مورخ و نویسنده میگوید که پیچیدگی فناوری هوش مصنوعی، پیشبینی خطرات آن را دشوار میکند و این فناوری میتواند یک بحران مالی با پیامدهای فاجعه بار ایجاد کند.
آیتیمن- هراری گفت: نگرانی بابت آزمون ایمنی مدلهای هوش مصنوعی، پیشبینی تمامیمشکلاتی است که یک سیستم قدرتمند میتواند به بار بیاورد.
وی افزود: بر خلاف سلاحهای هستهای، یک سناریوی بزرگ و خطرناک درباره هوش مصنوعی وجود ندارد که همه آن را درک کنند. در مورد این فناوری، سناریوهای متعدد خطرناکی وجود دارد که هر یک از آنها احتمال وقوع اندکی دارند و روی هم رفته، تهدید وجودی برای بقای تمدن بشری محسوب میشوند.
نویسنده کتاب انسان خردمند که همواره درباره توسعه هوش مصنوعی هشدار داده است، افزود: بیانیه چند جانبهای که هفته گذشته از سوی حاضران در اجلاس ایمنی هوش مصنوعی در لندن صادر شد، گام بسیار مهمیرو به جلو بود.
وی ادامه داد: شاید دلگرمکنندهترین یا امیدوارکنندهترین چیز در مورد آن بیانیه، این باشد که نه تنها اتحادیه اروپا، بریتانیا و ایالات متحده، بلکه دولت چین نیز وادار به امضای بیانیه شد. من فکر میکنم این یک نشانه بسیار مثبت بود؛ زیرا بدون همکاری جهانی، مهار خطرناکترین تواناییهای هوش مصنوعی، اگر نگوییم غیرممکن، بسیار دشوار خواهد بود.
هراری گفت: یکی از مشکلات مربوط به تست ایمنی مدلها، پیشبینی تمام مشکلاتی است که یک سیستم قدرتمند میتواند ایجاد کند. هوش مصنوعی با هر فناوری قبلی در تاریخ بشر متفاوت است زیرا این اولین فناوری است که میتواند به تنهایی تصمیم بگیرد، به تنهایی ایدههای جدیدی ایجاد کند و به تنهایی یاد بگیرد و توسعه یابد. تقریباً طبق تعریف، پیشبینی تمام خطرات و مشکلات احتمالی برای انسانها، حتی انسانهایی که این فناوری را ایجاد کردهاند، بسیار دشوار است.
وی افزود: دولتها به تهدید سیستمهای هوش مصنوعی برای کمک به ایجاد سلاحهای زیستی اشاره میکنند؛ اما سناریوهای دیگری نیز وجود دارد که میتوان در نظر گرفت.
این نویسنده به امور مالی بهعنوان بخشی ایدهآل برای سیستمهای هوش مصنوعی اشاره کرد و گفت:این زمینه ایدهآل برای هوش مصنوعی و منبع بالقوه یک بحران جدی ساخته شده توسط هوش مصنوعی است.
وی با طرح این سوال که چه اتفاقی میافتد اگر هوش مصنوعی نه تنها کنترل بیشتری بر سیستم مالی جهان داشته باشد، بلکه شروع به ایجاد دستگاههای مالی جدیدی کند که فقط هوش مصنوعی بتواند آنها را بفهمد و هیچ انسانی نتواند آنها را درک کند؟ گفت: بحران مالی 2007-2008 ناشی از ابزارهای بدهی مانند تعهدات بدهی وثیقه (CDOs) بود که افراد کمیآن را درک میکردند و بنابراین مقرراتگذاری مناسبی برای آن صورت نگرفت.
هراری افزود: هوش مصنوعی این پتانسیل را دارد که دستگاههای مالی بسازد که نسبت به CDOها پیچیدهتر هستند. وضعیتی را تصور کنید که یک سیستم مالی داشته باشیم که هیچ انسانی قادر به درک آن نباشد و بنابراین قادر به تنظیمگری آن نیست. در این صورت، اگر یک بحران مالی رخ دهد، هیچ کس نمیداند چه اتفاقی دارد میافتد.
ماه گذشته، دولت بریتانیا نگرانیهای خود را در مورد یک مدل هوش مصنوعی پیشرفته که به طور بالقوه با کنترل و دستکاری سیستمهای مالی یک تهدید وجودی ایجاد میکند، مطرح کرد. اما هراری گفت که بحران مالی ایجاد شده توسط هوش مصنوعی تمدن بشری را نابود نخواهد کرد؛ حداقل نه به شکل مستقیم. وی افزود: اما اگر هوش مصنوعی باعث ایجاد انواع خاصی از جنگها یا درگیریها شود، به طور غیرمستقیم میتواند به نابودی تمدن بشری بینجامد.
به گزارش گاردین، این نویسنده مطرح که از درخواستها برای توقف شش ماهه توسعه هوش مصنوعی پیشرفته و مسوول دانستن شرکتهای هوش مصنوعی در قبال آسیبهای ناشی از محصولاتشان حمایت میکند.
حراری گفت: ما باید هر چه سریعتر موسسات نظارتی قدرتمندی ایجاد کنیم که بتوانند خطرات ناشی از هوش مصنوعی را شناسایی کنند و نسبت به آن واکنش نشان دهند. نقطه تمرکز باید اینجا باشد؛ نه تلاش برای نوشتن یک آییننامه طولانی و پیچیده که ممکن است تا زمان تصویب، منسوخ شده باشد.
هراری گفت: به عنوان بخشی از این تنظیمگری، موسسات ایمنی هوش مصنوعی باید کارشناسانی را استخدام کنند که تأثیر بالقوه هوش مصنوعی بر دنیای مالی را درک کنند.