کریستوفر نولان، کارگردان اوپنهایمر:
هوش مصنوعی را نمیتوان به روش تسلیحات هستهای کنترل کرد
تاریخ انتشار
سه شنبه ۳ مرداد ۱۴۰۲ ساعت ۱۵:۰۶
آیتیمن- نولان به گاردین گفت: درخواست رابرت اوپنهایمر برای کنترل بینالمللی سلاحهای هستهای به نوعی محقق شد، با وجود این، از زمانی که «پدر بمب اتمی» پروژه منهتن را در جنگ جهانی دوم رهبری کرد، این فناوری به شدت گسترش یافته است.
وی افزود: نگاهی به کنترل بینالمللی سلاحهای هستهای و احساس اینکه همان اصول را میتوان در مورد چیزی اعمال کرد که به فرآیندهای صنعتی عظیم نیاز ندارد، کمیمشکل است.
نولان گفت: نظارت بین المللی بر سلاحهای هستهای امکان پذیر است زیرا ساخت سلاحهای هستهای بسیار دشوار است. اوپنهایمر 2 میلیارد دلار خرج کرد و از هزاران نفر در سراسر آمریکا برای ساخت اولین بمبها استفاده کرد. ساخت تسلیحات هستهای بسیار دشوار است و بنابراین تشخیص زمانی که کشوری این کار را انجام میدهد نسبتاً آسان است. من معتقد نیستم که هیچ یک از اینها در مورد هوش مصنوعی صدق کند.
آنتونیو گوترش، دبیر کل سازمان ملل متحد اخیرا گفت که سازمان ملل «مکانی ایدهآل» برای ایجاد یک استاندارد جهانی و رویکرد به هوش مصنوعی است.
براساس معاهده منع گسترش سلاحهای هستهای با میانجیگری سازمان ملل، کشورهای دارای سلاح هستهای متعهد هستند که به کشورهای غیرهستهای برای دستیابی یا ساختن چنین فناوری نظامی کمک نکنند.
نولان گفت: اوپنهایمر از کشورها میخواست تا «بخشی» از حاکمیت خود را رها کنند و کنترل انرژی هستهای را از طریق سازمان ملل متحد به دست جامعه بین المللی بسپارند. با این حال، سازمان ملل امروز با آنچه در دهه 1950 بود بسیار متفاوت است.
این کارگردان مطرح افزود: شباهتهای بسیاری بین این فیزیکدان مشهور و متخصصان هوش مصنوعی خواستار مهار توسعه این فناوری وجود دارد.
جفری هینتون، «پدرخوانده هوش مصنوعی»، امسال گوگل را ترک کرد تا با صراحت بیشتری درباره «خطر وجودی» ناشی از هوش مصنوعی پیشرفته صحبت کند. در همین حال ایلان ماسک، مدیر اجرایی تسلا، یکی از هزاران امضاکننده نامهای بود که خواستار توقف ساخت سیستمهای هوش مصنوعی قدرتمند شده است.
نولان همچنین گفت که هوش مصنوعی حاوی معضلات اخلاقی زیادی است و لزوماً یک مسیر روشن به جلو نیز ندارد.
نولان با بیان اینکه انتخاب بین جلوگیری از توسعه دانش هوش مصنوعی یا واگذاری آن به مالکیت عمومی، انتخابی ناقص است، گفت: فکر میکنم برای هر دو رویکرد استدلالهایی وجود دارد. من فکر میکنم هیچ کدام راهحلی رضایتبخش نیستند. این مساله نیاز به کار بسیار و تفکر بیشتری دارد. اما در نهایت مسوولیت پذیری چیزی است که باید در مرکز مباحثات و راهحلها باشد.
بر اساس این گزارش، ترس از تأثیر مخرب هوش مصنوعی بر صنعت سینما و تلویزیون، نقش مهمی در اعتصاب بازیگران و نویسندگان داشته است که هالیوود را فلج کرده است. با این حال، اعضای انجمن کارگردانان آمریکا از جمله نولان قرارداد جدیدی با استودیوهای فیلمسازی ایالات متحده امضا کردهاند که بر اساس آن هوش مصنوعی نمیتواند کار کارگردانان را به عهده بگیرد.
نولان گفت: هوش مصنوعی مولد، به عنوان ابزارهایی که میتوانند متن، تصویر و صدای قانعکنندهای را از دستورات ساده انسان تولید کنند، مخل خواهد بود، اما در زمینههایی مانند جلوههای بصری «فرصتهای فوقالعادهای» ایجاد میکند.
وی افزود: به اعتقاد من، این ابزار قدرتمندی در آینده خواهد بود. آنچه من سعی کردم در بحث مطرح کنم و به بیان آن ادامه دهم، مفهوم مسوولیت و مسوولیت کارفرما است. تنها کاری که نمیتوانیم انجام دهیم این است که به مدیریت، کارفرمایان و تولیدکنندگان اجازه دهیم برای فرار از مسوولیتهای خود از هوش مصنوعی استفاده کنند.