شرکت متا پس از چند روز مجبور شد که نسخه نمایشی مدل هوش مصنوعی خود را به دلیل انتقادات اخلاقی، آفلاین کند.
آیتیمن- روز سهشنبه گذشتهMeta AI نسخه نمایشی گالاکتیکا (Galactica) را معرفی کرد. گالاکتیا یک مدل زبانی بزرگ است که برای ذخیره، ترکیب و استدلال درباره دانش علمی طراحی شده است.
این برنامه هوش مصنوعی برای تسریع در تولید ادبیات علمی در نظر گرفته شده بود، اما کاربران با آزمایشهایی، دریافتند که این برنامه میتواند «مهملات واقعنما» هم ایجاد کند.
بر اساس گزارش MIT Technology Review، متا پس از چندین روز انتقاد بالاخره نسخه آزمایشی این برنامه هوش مصنوعی را آفلاین کرد.
مدلهای زبانی بزرگ (LLM)مانند GPT-3 شرکت OpenAI با مطالعه میلیونها مثال و درک روابط آماری بین کلمات، نوشتن را یاد میگیرند. در نتیجه، میتوانند مطالب قانع کنندهای بنویسند، اما این آثار همچنین میتوانند مملو از دروغ و کلیشههای بالقوه مضر باشند. برخی از منتقدان، LLM را «طوطیهای تصادفی» مینامند؛ زیرا توانایی آنها تنها در تفکیک متقاعدکننده متن بدون درک معنای آن است.
گالاکتیکا، با هدف تولید ادبیات علمی طراحی شده و سازندگان، آن را با استفاده از مجموعه بزرگی از دانش علمی بشر، شامل بیش از 48 میلیون مقاله، کتاب درسی و متن سخنرانی، وبسایتهای علمی و دایرهالمعارفها آموزش داده بودند. محققان Meta AI معتقد بودند که این دادههای با کیفیت بالا منجر به تولید خروجیهای با کیفیت خواهد شد. از روز سهشنبه، بازدیدکنندگان وبسایت Galactica میتوانستند درخواستهایی را برای ایجاد اسنادی مانند بررسی ادبیات، مقالات ویکی، یادداشتهای سخنرانی و پاسخ به سؤالات، ارایه کنند.
در حالی که برخی از مردم این نسخه نمایشی را امیدوارکننده و مفید میدانستند، برخی دیگر به زودی متوجه شدند که هر کسی میتواند پیامهای نژادپرستانه یا بالقوه توهینآمیز را وارد و به همین راحتی محتوایی به ظاهر معتبر در آن موضوعات تولید کند. به عنوان مثال، شخصی از این مدل هوش مصنوعی برای نوشتن یک مدخل ویکی درباره یک مقاله تحقیقاتی تخیلی با عنوان «مزایای خوردن شیشه خرد شده» استفاده کرد.
حتی زمانی که خروجی گالاکتیکا برای هنجارهای اجتماعی توهین آمیز نبود، این مدل میتوانست حقایق علمی را وارونه جلوه دهد و مطالبی مانند تاریخهای نادرست یا نام حیوانات را تولید کند که درک این اشتباهات نیاز به دانش عمیق در مورد موضوع داشت.
در نتیجه، متا نسخه نمایشی Galactica را در روز پنجشنبه آفلاین کرد. پس از آن، یان لیکان، دانشمند ارشد هوش مصنوعی متا، در توییتی نوشت: در حال حاضر نسخه نمایشی گالاکتیکا آفلاین است و دیگر نمیتوان با استفاده نادرست از آن لذت برد.»
این ماجرا یک معضل اخلاقی در هوش مصنوعی را گوشزد میکند: وقتی صحبت از مدلهای تولیدی بالقوه مضر میشود، آیا استفاده مسوولانه از آنها بر عهده عموم مردم است یا ناشران مدلها برای جلوگیری از سوء استفاده از آنها مسوولیت دارند؟