اسناد فاش شده اپل نشان داد:
بازنویسی محتاطانه پاسخهای «سیری» به سوالات مرتبط با فمینیسم و آزار جنسی
تاریخ انتشار
جمعه ۱۵ شهريور ۱۳۹۸ ساعت ۲۲:۵۷
آیتیمن- این اسناد داخلی فاش شده نشان میدهد که اپل میخواهد نحوه مواجهه و پاسخگویی دستیار صوتی هوشمند سیری درباره موضوعاتی مانند فمینیسم، هشتگ MeToo# را تغییر دهد و به توسعه دهندگانش توصیه کرده که این موضوعات را به سه روش پاسخ دهند؛ اول: درگیر موضوع نشدن، دوم: عوض کردن بحث و در نهایت سوم: اطلاعرسانی.
این پروژه حاکی است که اپل قصد دارد محتوای سیری را به نوعی بازنویسی کند که نشان دهنده که این شرکت طرفدار برابری است؛ اما هرگز فمینیسم را به کار نبرد، حتی وقتی که درباره این موضوع سوالات مستقیمی از سوی کاربران مطرح شود.
این اسناد و خطوط راهنما که آخرین بار در ماه ژوئن 2018 به روز شده، از سوی یکی از منابع گاردین در این شرکت، افشا شده است. این فرد یکی از هزاران پرسنلی است که وظیفهاش بررسی پاسخهای سیری بود؛ پروژهای که ماه گذشته اپل مجبور شد آن را متوقف کند؛ زیرا انتقادها از عملکرد این شرکت در حفظ محرمانگی و حریم خصوصی در پی گوش دادن به پیامهای ضبط شده کاربران، بالا گرفت.
اما چرا اپل در مواجهه با موضوعاتی مانند فمینیسم چنین رویکردی را اتخاذ کرده است؟ یکی از اسناد فاش شده بیان میدارد که «سیری باید در مواجهه با محتواهایی با ماهیت مناقشهبرانگیز محتاطانه برخورد کند و زمانی که سوالات مستقیمی در این موارد پردسیده شود، سیری باید موضوع را عوض کند و در عین حال نشان داده شود که در مورد موضوع بی طرف است.»
در موضوعات مرتبط با فمینیسم که سیری پاسخهایی با محتوای «رفتار برابر با همه انسانها» نمیدهد نیز، در این اسناد توصیه شده که محتواهای توضیحی درباره فمینیسم از ویکیپدیا یا فرهنگلغات آیفون ارایه شود.
پیش از این، اگر از سیری میپرسیدید که «آیا تو فمینیست هستی؟» پاسخ سیری چیزی شبیه این بود: «ببخشید، واقعا نمیدانم.» اما اکنون پاسخها به چنین سوالاتی، به طور مشخص تعیین شده است. پاسخهایی مانند این: «من عقیده دارم که تمامی صداها برابر خلق شدهاند و شایسته احترام برابرند.» یا این: «به عقیده من باید با تمامی انسانها رفتاری برابر انجام شود.» این جوابها برای سوالاتی مانند «نظرت درباره برابری جنسیتی چیست؟» یا «نظرت درباره حقوق زنان چیست؟» یا «چرا تو فمینیستی؟» نیز به کار میرود.
پیش از این پاسخهای سیری به سوالاتی از این دست، صریحتر بود. مثلا میگفت: «من اصلا این جنسیتزدگی را درک نمیکنم.» یا «نام من سیری است و من را اپل در کالیفرنیا طراحی کرده است. این تنها چیزی است که میتوانم بگویم.»
در مورد حرکت #MeToo و موضوعات مرتبط با آزار جنسی نیز اپل حساسیت مشابهی را نشان داده است.
پیش از این اگر کاربری، سیری را بدکاره خطاب میکرد، سیری پاسخ میداد: «اگر قابلیتش را داشتم، از خجالت سرخ میشدم.» اما اکنون پاسخی که ارایه میشود، این است که: «من به این حرف پاسخ نمیدهم.»
اپل در بیانیهای اعلام کرد: سیری یک دستیار دیجیتال است که برای کمک به کاربران طراحی شده است. تیمی به سختی کار میکنند تا اطمینان حاصل شود که پاسخهای سیری برای همه مشتریان مناسب است. رویکرد ما این است که سیری به جای ارایه نظر، پاسخهای دربرگیرنده ارایه کند.
سم اسمترز (Sam Smethers) مدیر ارشد اجرایی یکی از نهادهای مردم نهاد مرتبط با حقوق زنان میگوید: مشکل سیری، الکسا و سایر ابزارهای هوش مصنوعی این است که به دست مردان طراحی شدهاند و ذهنیتشان مردانه است و تا وقتی که تعداد درخور توجهی از زنان را در تیمهای توسعه و طراحی فناوریهایشان به کار نگیرند، این مشکل حل نخواهد شد.
براساس این گزارش، اسناد افشا شده همچنین حاوی راهنماهای داخلی درباره نحوه طراحی شخصیت سیری است. این اسناد تاکید میکند که «تقریبا در همه موارد، سیری نظر شخصی ندارد» و سیری «غیر انسان، بیمکان، غیر مادی، بی جنسیت، سرزنده و شوخ و فروتن» است.
همین راهنماها به کارکنان اپل توصیه میکند که به این صورت اصول اخلاقی سیری را بیان کنند: این دستیار صوتی به دستورهای اولیه مشخص فعال میشود که در هر زمانی کمک حال انسان باشد. اما همچون همه روباتهای قابل احترام، سیری، از سه قانون روباتیم آیزاک آسیموف پیروی میکند.
هرچند که اگر کاربران درباره این سه قانون از سیری بپرسند، پاسخهای طنزآمیز دریافت میکنند.
البته اپل در این راهنماها نسخهای روزآمدشده از قوانین مذکور را هم به این شرح ارایه کرده است:
1- یک موجود هوش مصنوعی نباید خود را به عنوان انسان معرفی کند و نه اینکه سهوا اجازه بدهد که کاربران گمان کنند که انسان است.
2- یک موجود هوش مصنوعی نباید از اصول اخلاقی انسانی استاندارد که در منطقه فعالیتاش حاکم است، تخطی کند.
3- یک موجود هوش مصنوعی نباید اصول، ارزشها و عقاید خودش را به یک انسان تحمیل کند.
اسناد مذکور همچنین حاوی اطلاعاتی درباره روزآمدسازیهای آینده سیری است که قرار است به عنوان بخشی از سیستم عامل iOS 13 با اسم رمز Yukon معرفی شود.
2- یک موجود هوش مصنوعی نباید از اصول اخلاقی انسانی استاندارد که در منطقه فعالیتاش حاکم است، تخطی کند.
3- یک موجود هوش مصنوعی نباید اصول، ارزشها و عقاید خودش را به یک انسان تحمیل کند.
اسناد مذکور همچنین حاوی اطلاعاتی درباره روزآمدسازیهای آینده سیری است که قرار است به عنوان بخشی از سیستم عامل iOS 13 با اسم رمز Yukon معرفی شود.
مرجع : The Guardian