شرکتهای گوگل، آنتروپیک، مایکروسافت و اوپنایآی انجمن ایمنی هوش مصنوعی تشکیل میدهند.
آیتیمن- این انجمن بر توسعه ایمن و مسوولانه مدلهای هوش مصنوعی مرزی تمرکز خواهد کرد.
اعضای این انجمن قصد دارند یک کمیته مشورتی ایجاد کنند که شامل تنظیم منشور و بودجه اختصاصی نیز میشود و اهداف اصلی آنها ترویج تحقیقات در زمینه ایمنی هوش مصنوعی، مانند توسعه استانداردهای ارزیابی مدلها، تشویق به استقرار مسوولانه مدلهای پیشرفته هوش مصنوعی، بحث درباره خطرات اعتماد و ایمنی در هوش مصنوعی با سیاستمداران و دانشگاهیان، و کمک به توسعه کاربردهای مثبت برای هوش مصنوعی مانند مبارزه با بحران آبوهوا و تشخیص سرطان است.
آنا ماکانجو، معاون امور جهانی OpenAI گفت: این یک امر حیاتی است که شرکتهای توسعه دهنده هوش مصنوعی بهویژه آنهایی که روی قویترین مدلها کار میکنند، روی زمینههای مشترکی همسو شوند و شیوههای ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از گستردهترین مزیت ممکن برخوردار هستند.
ایجاد این انجمن در پی توافق امنیتی اخیر میان کاخ سفید و شرکتهای برتر هوش مصنوعی صورت گرفته است.