صدور فرمان اجرایی بایدن برای کاهش خطرات هوش مصنوعی
تاریخ انتشار
سه شنبه ۹ آبان ۱۴۰۲ ساعت ۱۱:۲۸
آیتیمن- بر اساس فرمان اجرایی مذکور، توسعهدهندگان سیستمهای هوش مصنوعی که خطراتی برای امنیت ملی، اقتصاد، سلامت عمومییا ایمنی ایالات متحده ایجاد میکنند، باید مطابق با قانون تولیدات دفاعی، نتایج آزمایشهای ایمنی را قبل از انتشار محصول برای عموم، در اختیار دولت ایالات متحده بگذارند.
بنا به اعلام کاخ سفید، این قانون نهادهای دولتی را موظف به تدوین استانداردهای این آزمونها و در نظر گفتن مخاطرات شیمیایی، بیولوژیکی، رادیولوژیکی، هستهای و امنیت سایبری مرتبط میکند.
این فرمان، تازهترین گام دولت آمریکا برای تعیین مقررات درباره هوش مصنوعی است که توانمندیها و فراگیری آن به سرعت در حال افزایش است.
اما این اقدام موجب واکنشهای متفاوتی در بخش خصوصی شده است.
شرکت آیبیام در بیانیهای اعلام کرد که این فرمان اجرایی حاوی این پیام مهم است که «هوش مصنوعی مورد استفاده در ایالات متحده، هوش مصنوعی مسوولیتپذیر خواهد بود.»
اما انجمن NetChoice که یک انجمن تجاری ملی شامل پلتفرمهای بزرگ فناوری بزرگ، این فرمان اجرایی را بهعنوان مجموعهای از کاغذبازیها توصیف کرد که در نهایت مانع از ورود شرکتها و رقبای جدید به بازار میشود و قدرت دولت فدرال را در حوزه فناوری به طور قابل توجهی گسترش میدهد.
این فرمان اجرایی که عصر دیروز رونمایی است، فراتر از تعهدات داوطلبانهای که در اوایل سال جاری از سوی شرکتهایی مانند آلفابت، متاپلتفرمز و OpenAI انجام شد. این شرکتها متعهد شدند که محتوای تولید شده توسط هوش مصنوعی را به منظور ایمنتر کردن این فناوری، مجهز به واترمارک کنند.
کاخ سفید در بیانیهای اعلام کرد که بر اساس این فرمان اجرایی، وزارت بازرگانی دستورالعملهایی را برای احراز اصالت محتوا برای برچسبگذاری اقلامیکه توسط هوش مصنوعی تولید میشوند، ایجاد خواهد کرد تا از شفاف بودن ارتباطات دولتی اطمینان حاصل کند.
بروس رید، معاون رئیس کارکنان کاخ سفید، این فرمان را قویترین مجموعه اقداماتی خواند که دولت برای تضمین امنیت هوش مصنوعی انجام داده است.
کاخ سفید همچنین گفت که بایدن به ویژه از کنگره میخواهد تا قانونی را در مورد حفظ حریم دادهها تصویب کند.
مقامات ایالات متحده هشدار دادهاند که هوش مصنوعی میتواند خطر سوگیری و نقض حقوق مدنی را افزایش دهد و فرمان اجرایی بایدن در این زمینه راهکار ارایه میدهد.