کیت کرافورد (Kate Crawford ) در زمینه تاثیرات اجتماعی و سیاسی هوش مصنوعی پژوهش میکند. او استاد تحقیقات ارتباطات و علم و فناوری در دانشگاه کالیفرنیای جنوبی و محقق ارشد مایکروسافت است.
کرافورد در کتاب جدید خود با عنوان «اطلس هوش مصنوعی» که از سوی انتشارات دانشگاه ییل منتشر شده، مخاطرات هوش مصنوعی را برای دنیای ما بررسی کرده است.
گاردین با کیت کرافورد گفتوگویی انجام داده است که بخشهایی از آن را میخوانید.
آیتیمن-
شما کتابی انتقادی در زمینه هوش مصنوعی نوشتهاید؛ اما در شرکتی کار میکنید که جزو پیشگامان پیادهسازی این فناوری است. چگونه این مساله را توضیح میدهید؟
من در بخش تحقیقات مایکروسافت کار میکند سازمانی مجزا از توسعه محصول است.
شاید عجیب به نظر برسد که مایکروسافت در تاریخ 30 ساله خود، پژوهشگران اجتماعی را استخدام کرده که با نگاهی انتقادی به شیوه ساخت فناوریها بنگرند.
بودن درون شرکت، اغلب به ما امکان میدهد که نکات منفی را پیش از آنکه سیستمها به طور گسترده پیادهسازی شوند، ببینیم.
کتاب من هم وارد مراحل بازبینی پیش از نشر نشده، زیرا واحد تحقیقات مایکروسافت چنین الزامی را اعمال نمیکند، و رهبران مایکروسافت نیز با استقبال از پرسشهای دشوار، حتی اگر پاسخها مربوط به ارزیابی انتقادی از تجربیات فناورانه کنونی باشد، از آزمایشگاه من حمایت میکنند.
هدف از نوشتن این کتاب چه بود؟
معمولا نگرشی درباره هوش مصنوعی به ما ارایه میشد که این فناوری، غیرمادی و مجرد است. من میخواستم درک گستردهتری از شیوه ساخت هوش مصنوعی ایجاد کنم؛ از جمله هزینههای منابع طبیعی، فرایندهای نیروی انسانی و منطق طبقهبندی شده آن. برای مشاهده عملی این موارد، به مکانهایی مانند معادن برای بررسی فرایند استخراج مواد لازم از پوسته زمین رفتم. همچنین به یک مرکز پردازش کالای آمازون سر زدم تا زیانهای فیزیکی و روانی کارگرانی را بررسی کنم که تحت یک سیستم مدیریت الگوریتمی کار میکنند. امیدوارم که با نشان دادن چگونگی کارکرد سیستمهای هوش مصنوعی، با نمایش بیواسطه ساختار محصولات و مواد مورد استفاده، ما به درک دقیقتری از آثار این فناوری دست پیدا کنیم و افراد بیشتری به مباحثات مربوطه بپیوندند.
چنین سیستمهایی در بخشهای مختلف و بدون مقررات گذاری محکم و مباحث دموکراتیک، در حال پیادهسازی هستند.
مردم درباره شیوه تولید محصولات هوش مصنوعی چه چیزهایی را باید بدانند؟
ما معمولا در مورد این سیستم ها به هزینههای زیست محیطی آنها فکر نمیکنیم. اما گفتن«هی، الکسا، برای من چند تا دستمال توالت سفارش بده»، در واقع یک زنجیره استخراج را ایجاد میکند که در کل جهان جریان مییابد. ما تا زمانی که به فناوری سبز برسیم، راه درازی در پیش داریم. همچنین، سیستمها ممکن است خودکار به نظر برسد؛ اما وقتی پردهها را از روی آن کنار بزنیم، تعداد زیادی از کارگران کم درآمد را میبینیم که از کارهای گروهی طبقه بندی دادهها تا زحمت بیپایان جابهجا کردن جعبههای آمازون. هوش مصنوعی نه مصنوعی است و نه هوشمند. این فناوری از منابع طبیعی ساخته شده و این مردم هستند که مشغول وظایفی هستند که باعث میشود این سیستمها خودمختار به نظر برسند.
به مشکلات مربوط به سوگیری در هوش مصنوعی بسیار پرداخته شده است. فکر میکنی با داشتن دادههای بیشتر این مشکل حل میشود؟
سوگیری، عبارت کاملی برای مشکلاتی که از آن صحبت میکنیم نیست. ما به طور مداوم میبینیم که این سیستمها اشتباه تولید میکنند، الگوریتمهای ارزشیابی اعتبار به زنها اعتبار کمتری میدهند، صورت سیاهپوستان به اشتباه لیبلگذاری میشود، و پاسخ به تمام این مشکلات هم این بوده که: «ما فقط به دادههای بیشتری نیاز داریم.» اما اگر عمیقتر به منطق دستهبندی نگاه کنیم، انواع تبعیضها را ، نه فقط وقتی سیستمها به کار گرفته میشود، بلکه در چگونگی ساخت و یادگیری آنها خواهیم دید.
مجموعه دادههای آموزش که برای نرمافزارهای یادگیری ماشین استفاده میشود، عموما افراد را به دو جنس دسته بندی میکنند. این مجموعهدادهها افراد را براساس رنگ پوستشان به عنوان یکی از پنج گروه نژادی برچسب میخورند و با این اقدام، بر اساس شکل ظاهری افراد، به آنها شخصیت اخلاقی منتسب میشود.
این ایده که میتوان چنین برداشتهایی بر اساس ظاهر افراد داشت؛ دارای گذشته تاریکی است و متاسفانه سیاست طبقهبندی، درون ذات هوش مصنوعی نهادینه شده است.
شما به ImageNet به عنوان یک مجموعهداده آموزش در دسترس عموم برای بازشناسی اشیا اشاره کردهاید...
ImageNet از حدود 14 میلیون تصویر در بیش از 20 هزار گروه، تشکیل شده و یکی از مهمترین مجموعهدادههای آموزش در تاریخ یادگیری ماشین است. از این مجموعه داده برای آزمایش کارآمدی الگوریتمهای بازشناسی اشیا استفاده میشد. این مجموعه داده در سال 2009 از سوی گروهی از محققان دانشگاه استنفورد ارایه شد که حجم بالایی از تصاویر را از اینترنت استخراج کردند و کارگنان، آنها را بر اساس واژههای WordNet، که یک پایگاه داده واژگانی ساخته شده در سال 1980 است، برچسبگذاری کردهاند.
من در سال 2017 پروژهای را با هنرمندی به نام تروور پاگلن آغاز کردن تا ببینم افراد چگونه برچسبگذاری شدهاند. نتیجه اینکه به اصطلاحات طبقهبندی وحشتناکی دست یافتیم که به طور افراطی زنستیز، نژادپرستانه، توانمندگرا و قضاوتگر بود. تصاویر افراد در این مجموعهداده با واژهها و عباراتی مانند مبتلا به جنون سرقت، الکلی، آدم بد، زن بدکاره، معتاد و چیزهای دیگری که نمیتوان گفت، مرتبط شده بود. ImageNet اکنون بسیاری از این دستهبندیهای مشکلآفرین را حذف کرده که قدم رو به بهبود بزرگی است. هرچند این مشکل همچنان پابرجاست، زیرا این مجموعهدادههای آموزش، همچنان در سایتهای تورنت در دسترس است.
از سوی دیگر، ImageNet به صورت عمومی در دسترس است و به همین دلیل قادر به بررسی آن بودهایم. مجموعهدادههای آموزش عظیمی در دست شرکتهای فناوری وجود دارد که کاملا سری است. این شرکتها از تصاویری که ما در شبکههای اجتماعی و سرویسهای اشتراک تصویر بارگذاری میکنیم، استفاده و آنها را به سیستمهای مخفی تبدیل میکنند.
شما استفاده از هوش مصنوعی برای بازشناسی احساسات را نقد میکنید؛ ولی در عین حال در شرکتی کار میکنید که فناوری بازشناسی احساسات را میفروشد. آیا باید از هوش مصنوعی برای شناسایی احساسات استفاده کرد؟
این ایده که میتوان از روی چهره هر فرد به احساساتاش پی برد، کاملا ناقص است و به نظر من ممکن نیست. من در کتاب اشاره کردهام که این فناوری یکی از مواردی است که باید مقرراتگذاری شود. بیشتر سیستمهای بازشناسی احساسات بر اساس خط فکری در روانشناسی که در دهه 1970 مطرح بود، ساخته شدهاند. این نظریه میگوید که شش حس وجود دارد که ما در چهرههایمان نمایش میدهیم و با استفاده از تکنیکهای درست، میتوان این احساسات را تشخیص داد. اما از همان زمان نیز این نظریه مخالفانی داشت و تحقیقات احیر نشان میدهد که ارتباط معناداری بین حالات چهره و آنچه ما واقعا احساس میکنیم وجود ندارد. با این وجود، شرکتهای فناوری همچنان میگویند که استخراج احساسات به سادگی نگاه کردن به ویدیویی از چهره افراد ممکن است. حالا هم میبینیم که این فناوریها در سیستمهای نرمافزاری خودروها به کار گرفته شده است.