نویسنده کتاب «انسان خردمند» میگوید که افزایش ایجاد «شخصیتهای جعلی» در شبکههای اجتماعی میتواند منجر به فروپاشی دموکراسی شود.
آیتیمن- یووال نوح هراری، نظریه پرداز، مورخ و نویسنده مطرح یهودی گفت: سازندگان روباتهای هوش مصنوعی که خود را به عنوان انسان جا میزنند، باید با احکام جنایی سختگیرانهای مشابه کسانی روبهرو شوند که ارزهای تقلبی معامله میکنند.
او همچنین خواستار اعمال مجازات زندان، برای مدیران شرکتهای فناوری شد که پلتفرمهای رسانه اجتماعی خود را در برابر ایجاد پروفایلهای جعلی محافظت نمیکنند.
نویسنده کتاب «انسان خردمند» و «انسان خداگونه» در سخنرانی در نشست جهانی هوش مصنوعی سازمان ملل متحد در ژنو گفت که تکثیر انسانهای جعلی میتواند منجر به فروپاشی اعتماد عمومی و دموکراسی شود.
وی افزود: اکنون، برای اولین بار در تاریخ، امکان ایجاد میلیاردها انسان جعلی وجود دارد. اگر اجازه داده شود این اتفاق بیفتد، همان بلایی که پول جعلی بر سر سیستم مالی تهدید میکرد، برای جامعه رخ میدهد. اگر نتوانید بدانید که یک انسان واقعی است یا جعلی، اعتماد از بین خواهد رفت.
ظهور ChatGPT و دیگر مدلهای زبان بزرگ به این معنی است که روباتهای هوش مصنوعی نه تنها میتوانند محتوای انسانی را تقویت کنند، بلکه به طور مصنوعی محتوای خود را در مقیاس بالا تولید میکنند.
هراری گفت: چه اتفاقی می افتد اگر یک پلتفرم رسانه اجتماعی داشته باشید که در آن میلیونها روبات محتوایی ایجاد کنند که از بسیاری جهات برتر، متقاعد کنندهتر و جذابتر از محتوای تولید شده به دست انسان باشد؟ اگر اجازه دهیم این اتفاق بیفتد، آنگاه انسانها کاملاً کنترل گفتوگوی عمومی را از دست میدهند و دموکراسی کاملاً غیرقابل اجرا خواهد شد.
به گفته وی، بخشی از راه حل باید اعمال مجازاتهای شدید کیفری برای کسانی باشد که چنین روباتهایی را ایجاد می کنند.
هراری افزود: اگر شرکتهای فناوری ملزم به اتخاذ تدابیر موثر یا محکومیت ۲۰ سال زندان شوند، به سرعت راههایی برای جلوگیری از اشباع پلتفرمها با افراد جعلی پیدا خواهند کرد.
هراری همچنین خواستار سرمایه گذاری بیشتر در ایمنی هوش مصنوعی شد و پیشنهاد کرد که شرکتها ملزم شوند 20 درصد از هزینههای سرمایه گذاری را به تحقیق در مورد خطرات و نحوه مدیریت آنها اختصاص دهند.
اظهارات هراری به دنبال اعلام شرکت OpenAI، سازنده ChatGPTدر روز پنجشنبه بود که 20 درصد از قدرت محاسباتی خود را به ایمنی هوش مصنوعی از جمله ایجاد یک تیم تحقیقاتی برای بررسی چگونگی کنترل و هدایت هوش مصنوعی و جلوگیری از سرکشی آن اختصاص خواهد داد.