ماشینهای ذیشعور را فراموش کنید؛ مشکل اصلی سوگیری هوشمصنوعی است
کنعان مالک / مولف
تاریخ انتشار
سه شنبه ۳۱ خرداد ۱۴۰۱ ساعت ۱۵:۱۴
این برنامه که لامدا (LaMDA، سرواژه مدل زبانی برای کاربردهای محاوره) نام دارد، محصول یک پروژه گوگل است. فردی که نرمافزار مخاطب قرار داد و چنین ادعایی کرد هم، بلیک لموین، یک مهندس ارشد نرمافزار گوگل بود. لموین معتقد است که لامدا دارای ادراک شده و باید واجد همان حقوق موجودات ذیشعور باشد. وقتی گوگل این ادعاها را رد کرد، لموئن اقدام به انتشار گفتوگوهای خود (یا لااقل بخشهایی از برخی گفتوگوها) با لامدا روی وبلاگ خود کرد. سپس گوگل او را به دلیل افشای اسرار شرکت از کار تعلیق کرد و در نتیجه، موضوع به یک مبحث جهانی تبدیل شد.
چرا لموین معتقد است که لامدا یک موجود ذیشعور است؟ خودش هم نمیداند.
لموین در توییتی نوشت: مردم مدام از من میپرسند که دلیل اینکه فکر میکنم لامدا دارای شعور است، چیست. هیچ چارچوب علمی که بتوان چنین تشخیصی را داد وجود ندارد. نظر من درباره شخصیت و شعورمند بودن لامدا بر اساس عقاید مذهبی من است.»
لیموین حق دارد که اعتقادات مذهبی خودش را داشته باشد. اما اعتقاد مذهبی، چیزی را که صرفا یک چتبات پیچیده و پیشرفته است، به یک موجود ذیشعور تبدیل نمیکند.
شعور یکی از مفاهیمی است که میتوان معنای آن را به صورت شهودی دریافت؛ اما فرموله کردن آن به صورت یک عبارت علمی، دشوار است.
شعورمندی اغلب با مفاهیم ناکاملی مانند آگاهی، خودآگاهی و هوشمندی تعریف شده است. گری مارکوس، محقق شناختی، شعور را «آگاه بودن از وجود خود در دنیا» توصیف میکند و میگوید: لامدا چنین آگاهیای ندارد.
کامپیوترها با نمادها سروکار دارند. یک برنامه کامپیوتری، مجموعهای از قواعد یا الگوریتمها را برای تبدیل رشتهای از نمادها به رشتهای دیگر تشخیص میدهد. اما معنای این نمادها را نمیفهمد. برای کامپیوتر، معنایی وجود ندارد. با این وجود یک مدل بزرگ زبانی مانند لامدا، که با حجم عظیمی از متون آنلاین آموزش دیده است، میتواند در تشخیص الگوها و خلق پاسخهای معنادار برای انسان، مهارت کسب کند.
لیموین در یکی از گفتوگوهای خود با لامدا، میپرسد: «چه چیزهایی به تو احساس لذت و خوشی میدهد؟» و لامدا در جواب میدهد که «وقتگذرانی شاد با دوستان و خانواده.»
این پاسخی است که برای انسان مفهومی کامل دارد. ما واقعا از گذراندن وقت با دوستان و خانواده لذت میبریم. اما آیا لامدا تا کنون با خانواده وقت گذرانده است؟ این نرمافزار صرفا به گونهای برنامهریزی شده این جمله معنادار برای انسان، و سوال مرتبط با آن را تشخیص دهد؛ بدون اینکه این جواب، واقعا برای خود لامدا معنایی داشته باشد.
انسانها نیز در تفکر کردن و حرف زدن و خواندن و نوشتن، با نمادها و نشانهها کار میکنند. هرچند که برای انسان، بر خلاف کامپیوتر، معنا همه چیز است. ما وقتی ارتباط برقرار میکنیم، در واقع معنا را انتقال میدهیم. برای ما نه فقط خارج از رشتهای از نمادها، بلکه درون آنها نیز اهمیت دارد. نه فقط قواعد زبانی، بلکه مفاهیم نیز مهماند. معنا برای انسان از طریق وجود به عنوان یک موجود اجتماعی حاصل میشود. هر انسانی فقط در جامعهای متشکل از موجودات متفکر، با احساس و سخنور که با آنها ارتباط برقرار میکند، خود را معنا میکند. ترجمه فرایندهای مکانیکی مغز به عنوان زیربنای تبدیل افکار به آنچیزی که ما آنها را معنا مینامیم، نیازمند یک جهان اجتماعی و قراردادهایی جمعی برای درک این تجربیات است.
معنا از طریق فرایندی نه فقط محاسباتی، بلکه با تعاملات اجتماعی ایجاد میشود و تعاملات است که محتوای نمادها را در ذهن ما شکل میدهد. قراردادهای اجتماعی، روابط اجتماعی و حافظه جمعی، چیزی است که قواعد شکل دهنده معنا را میسازد.
محققان موسسه آلن برای هوش مصنوعی، در پروژه خود با نام موزاییک، از مدلهای زبانی مشابه لامدا سوالاتی پرسیدند که نیازمند مقداری هوش اجتماعی بود. سوالاتی مانند این که: «جورن میخواهد رازی را به تریسی بگوید؛ بنابراین جوردن به سمت تریسی خم میشود. چرا جوردن این کار را میکند؟» و ماشینها در مواجهه با چنین پرسشهایی بسیار بدتر از انسان عمل کردند.
این مجادلات درباره اینکه آیا کامپیوترها ذیشعور هستند یا نه، بیش از ماشینها درباره انسانها به ما اطلاعات میدهد.
انسانها آنقدر از یافتن معنا ناامید است که اغلب به اشیا ذهنیت نسبت میدهد. انتساب احساس به برنامههای کامپیوتری نیز نسخه مدرنی از همان عقیده باستانی است که باد، دریا و خورشید نیز دارای ذهن، روح و الوهیت دانسته میشدند.
مسایل و مشکلات زیادی در ارتباط با هوش مصنوعی وجود دارد که باید نگران آنها باشیم و هیچ کدام از این مسایل هم ربطی به شعور ندارد. برای مثال، مساله سوگیری هوش مصنوعی مطرح است. از آنجا که الگوریتمها و سایر اشکال نرمافزار برای استفاده از دادهها مربوط به جوامع انسانی آموزش داده میشوند، این نرمافزارها اغلب سوگیریها و گرایشهای آن جوامع را بازتولید میکنند. نرمافزارهای بازشناسی چهره، سوگیریهای نژادی را به نمایش میگذارند و افراد به دلیل اشتباهات دادهای دستگیر میشوند. هوش مصنوعی مورد استفاده در سلامت و استخدام نیز همان سوگیریهای اجتماعی جهان واقعی ما را بازتولید میکنند.
تیمنیت گبرو، مسوول سابق تیم هوش مصنوعی اخلاقی گوگل، و چندین تن از همکارانش، مقالهای در سال 2020 منتشر کردند که نشان میداد مدلهای زبانی عظیم، مانند لامدا، که برای یادگیری بر اساس متنهای آنلاین تنظیم شدهاند، مستعد برداشتی کاملا تحریف شده از جهان هستند؛ زیرا حجم عظیمی از ورودیهای آنها، نژادپرستانه، جنسیتزده و دارای توهم توطئه است. گوگل از انتشار این مقاله سر باز زد و گبرو مجبور به ترک شرکت شد.
علاوه بر این، موضوع محرمانگی مطرح است. از استفاده روزافزون از نرمافزارهای بازشناسی چهره تا تکنیکهای پیشبینی کننده پلیسی، از الگوریتمهایی که ما را به صورت آنلاین ردگیری میکنند تا سیستمهای هوشمند خانگی مانند سیری، الکسا و گوگل نست، هوش مصنوعی به خصوصیترین بخشهای زندگی ما نفوذ کرده است. پلیس فلوریدا توانست برای دانلود مکالمات خصوصی ضبط شده توسط ابزارهای اکو آمازون حکم بگیرد. ما به سمت یک سیستم نظارتی سراسربین جهانی در حال حرکت هستیم.
علی رغم ادعای لیموین، ما نیازمند جلب موافقت لامدا برای آزمایش روی آن نیستیم. ولی باید روی شفافیت بیشتر درباره استفاده از این سیستمهای هوش مصنوعی به منظور نظارت و کنترل، توسط شرکتهای بزرگ فناوری و موسسات دولتی پافشاری کنیم
مسایل اخلاقی به وجود آمده به واسطه هوش مصنوعی در آن واحد، هم کوچکتر و هم بسیار بزرگتر از رویای یک ماشین ذیشعور هستند.
کنعان مالک، مقالهنویس آبزرور است