فناوری تشخیص چهره در خدمت پلیس: جانبدارانه و پرخطا
تاریخ انتشار
سه شنبه ۱۸ تير ۱۳۹۸ ساعت ۰۹:۲۳
آیتیمن- تروریستی احتمالی را در نظر بگیرید که قصد انجام عملیات انتحاری در یک منطقه پر تردد شهر را دارد و اگر بمب را فعال کند، صدها نفر خواهند مرد یا به شدت مجروح میشوند.
اما دوربینهای مدار بسته مجهز به فناوری تشخیص چهره، او را در میان جمعیت مییابند و به طور خودکار مشخصات چهره او را با تصاویر موجود در پایگاه دادههای مربوط به تروریستهای شناخته شده یا افراد تحت تعقیب مقایسه میکنند. سیستم، پس از مثبت بودن نتیجه بررسی، پیام هشدار را ارسال میکند و نیروهای ضد تروریست به سرعت به محل اعزام و پیش از اقدام تروریست به منفجر کردن بمب، موفق به کشتن او میشوند. جان صدها نفر نجات مییابد و فناوری، کارش را به خوبی انجام میدهد.
اما اگر فناوری تشخیص چهره اشتباه کند و اگر فرد مورد نظر تروریست نباشد و صرفا آدم بدشانسی باشد که شبیه یک تروریست بدذات است، چه؟ در این وضعیت جان یک انسان را به دلیل اعتماد بیش از حد به سیستمی که احتمال اشتباه دارد، گرفتهایم.
حالا فرض کنید خود شما آن آدم بدشانس هستید. در این صورت درباره این فناوری چه نظری دارید؟
آنچه ذکر شد، یکی از مسایل اخلاقی است که در استفاده از فناوریهای هوش مصنوعی و تشخیص چهره با آن روبهروییم.
آموزش ماشین به دیدن – شناسایی و تمییز بین اشیا و چهرهها- کار به شدت دشواری است. دید کامپیوتری، همین چند وقت پیش در آزمایشی، از تشخیص تفاوت بین یک کیک یزدی و صورت سگ چیواوا ناتوان نبود.
تیمنیت گبرو (Timnit Gebru)، دانشمند کامپیوتر و یکی از مدیران تیم هوش مصنوعی اخلاقی گوگل، نشان داده است که فناوری تشخیص چهره در تشخیص تفاوت زن و مرد نیز به ویژه وقتی رنگ پوست فرد تیرهتر باشد، مشکل جدی دارد و زنی با پوست تیره، با احتمال زیادی به عنوان مرد تشخیص داده میشود.
وی در جریان نشست استفاده مفید از هوش مصنوعی که ماه مه گذشته در ژنو برگزار شد، گفت: مشخصات نزدیک به 130 فرد بالغ آمریکایی هم اکنون در پایگاه دادههای تشخیص چهره ذخیره شده است. اما مجموعهدادهها عمدتا مربوط به مردان و سفیدپوستان است و به این ترتیب، با افراد دارای رنگ پوست تیرهتر سوگیری دارد و در این زمینه شاهد اشتباهات زیاد ماشین در مورد رنگین پوستان و تشخیص جنسیت هستیم.
مقامات شهر سانفرانسیسکو در کالیفرنیا نیز با تایید مشکلات این فناوری و خطری که برای آزادیهای مدنی دارد، استفاده از فناوری تشخیص چهره را برای پلیس و نهادهای مجری قانون ممنوع اعلام کردند. اما سایر شهرها در ایالات متحده و همچنین کشورهای متعدد دیگر، همچنان درحال آزمایش این فناوری هستند.
برای مثال در بریتانیا، نیروهای پلیس درمنطقه ساوث ولز، لندن، منچستر و لستر، در عین مخالفت نهادهای مدافع آزادیهای مدنی همچون Liberty و Big Brother Watch در حال آزمایش این سیستمها هستند، هر دو نهاد مدافع آزادیهای مدنی مذکور، نگران درصد بالای خطا در این سیستمها و احتمال شناسایی افراد بیگناه به عنوان خلافکار هستند.
گبرو میگوید: سوگیری نیز نکته مهمی است که همه باید در رویارویی با این فناوری نگرانش باشند.
آمارهای دفتر فدرال زندانهای ایالات متحده آمریکا نشان میدهد که 37.5 درصد کل زندانیان در این کشور سیاهپوست هستند، در حالی که آمریکاییهای آفریقایی تبار تنها 13 درصد از جمعیت این کشور را تشکیل میدهند. به این ترتیب، اگر الگوریتمهای هوش مصنوعی به درستی طراحی نشوند، با ارایه این مجموعهدادهها، الگوریتم ممکن است احتمال اینکه هر فرد سیاهپوست مرتکب جرم بشود را بالاتر ارزیابی بکند که این وضعیت، آثار مخربی روی امنیت و سیاستهای اجتماعی خواهد داشت.
همین هفته گذشته، محققان دانشگاه Essex در بررسیهای خود به این نتیجه رسیدند که در آزمایش این سیستم توسط پلیس کلانشهر لندن، 80 درصد خطا وجود داشته است که احتمال خطا در اجرای عدالت و نقض حق محرمانگی شهروندان را در پی خواهد داشت.
از سوی دیگر، فردی انگلیسی به نام اد بریجز نیز به دلیل استفاده پلیس ساوث ولز ازاین فناوری و ثبت تصویر او در حال خرید، علیه پلیس اقامه دعوی کرده است. الیزابت دنهام، رییس کمیسیون اطلاعات دولت انگلیس نیز درباره نبود چارچوبهای قانونی برای بهکارگیری فناوری تشخیص چهره، ابراز نگرانی کرده است.
اما این نگرانیها، مانع از این نمیشود که آمازون، ابزار تشخیص چهره خود به نام Rekognition را، حتی علیرغم محالفت سهامداران، به پلیس ایالات متحده بفروشد.
آمازون میگوید که در قبال شیوه استفاده خریداران از محصولاتش مسوولیتی ندارد. اما در مقابل، شرکت سیلزفورس نیز که فناوری مشابهی با نام Einstein Vision توسعه داده، دیدگاه متفاوتی دارد.
کتی بکستر، معمار تجربه اخلاقی هوش مصنوعی در سیلزفورس در این رابطه به بیبیسی گفت: فناوری تشخیص چهره میتواند در زندانها و به منظور ردگیری زندانیان و جلوگیری از خشونت دارودستههای خلافکار در زندان مفید واقع شود. اما اگر پلیس بخواهد از این فناوری در دوربینهای نصب شده روی لباس نیروهای خود در زمان دستگیری افراد استفاده کند، ما این استفاده را نامناسب میدانیم.
وی افزود: ما باید از مشتریان خود بپرسیم که قصد دارند از هوش مصنوعی به طور کل در چه مواردی استفاده کنند و فناوری تشخیص چهره نیز از این قاعده مستثنی نیست.
حالا نیروهای نظامی و ارتشها نیز از این فناوری استفاه میکنند و ادعای فروشندگان مبنی بر اینکه فناوری تشخیص چهره آنان، نه تنها دشمنان احتمالی، بلکه رفتارهای مشکوک را نیز شناسایی میکند، نیروهای نظامی را برای بهکارگیری این فناوری ترغیب میکند. اما ایو داکور (Yves Daccord) مدیرکل کمیته صلیب سرخ جهانی، از این بابت به شدت اظهار نگرانی میکند.
داکور میگوید: این روزها جنگها نیز پیشرفته شده و حالا پهپادها و سلاحهای خودکار میتوانند بین افراد نظامی و غیرنظامی را تشخیص بدهند. اما آیا این تشخیص درست است؟ این ابزارها می تواند منجر به ویرانگری شود.
مرجع : BBC