هفته گذشته شرکتهای آیبیام، آمازون و مایکروسافت اعلام کردند که فروش فناوری بازشناسی چهره خود را به نهادهای مجری قانون متوقف میکنند. این موضوع یکی دیگر از نشانههای اثر عمیقی است که تظاهرات و اعتراضها برای عدالت اجتماعی برجای گذاشته است.
آیتیمن- این تصمیم غولهای فناوری، از سوی دیگر، نشاندهنده مخاطرات ذاتی هوش مصنوعی است، به ویژه وقتی که این
فناوری دارای سوگیری باشد یا احتمال نقص حریم خصوصی به واسطه استفاده از آن افزایش یابد. این مساله آنقدر جدی است که
کنگره آمریکا قصد دارد استفاده از این فناوری را قانونمند کند و در شهرهایی مانند سانفرانسیسکو نیز، استفاده پلیس از این فناوریها، ممنوع شده است.
به دلیل پیشرفتهای صورت گرفته در فناوریهای
یادگیری عمیق و سیستمهایی که پردازش حجم عظیمی از دادهها را با سرعت بسیار بالاتر انجام میدهند، فناوری بازشناسی چهره در دهههای اخیر شاهد جهش فوقالعادهای بوده، اما کارشناسان متفق القولند که همچنان پیشرفتهای بیشتری باید صورت بگیرد تا این فناوری قابل اعتماد باشد.
کن بودنار، محقق هوش مصنوعی میگوید: فناوری بازشناسی چهره بسیار خوب است، اما هنوز چندان کارآمد و قوی نیست.
به گفته وی،
شبکههای عصبی به خوبی آموزش دیدهاند و به نحو شگفتانگیزی عمل شناسایی را انجام میدهند؛ اما اگر حتی یک پارامتر درست عمل نکند، عمل شناسایی به اشتباه انجام میشود.
بودنار میافزاید: وقتی یک چهره به این فناوری داده میشود، طیف وسیعی از الگوریتمها و پارامترها به کار گرفته میشود. دقیقترین ابزارهای هوش مصنوعی شبکههای DBN هستند که ویژگیهایی مانند فاصله چشمها، نوع مو و ابرو، شکل چانه، پارامترهای سن و حجم لب را تشخیص میدهند. اما از آنجا که الگوریتمهای دسته بندی چندان پیشرفته نیست، میتوان این سیستمها را به سادگی گول زد.
البته در مواردی مانند استفاده از این فناوری در اپلیکیشنهای سرگرم کننده
شبکههای اجتماعی، مشکل دقت چندان نگران کننده نیست. اما وقتی قرار باشد بر اساس این فناوریها، کسی را دستگیر یا جریمه کرد، آنگاه موضوع دقت، اهمیت بسیار بالایی مییابد.
مشکل دیگر فناوری بازشناسی چهره، افت کارآمدی در مواردی است که با اقلیتهای نژادی مواجه میشود.
مایکل استرایلویتز (Michal Strahilevitz) استاد بازاریابی کالج سنت ماری کالیفرنیا میگوید: یکی از مشکلات این فناوری در تحقیق سال گذشته دانشگاه MIT نشان داده شد. در این تحقیق مشخص شد که ابزارهای بازشناسی چهره در مورد شناسایی افراد رنگین پوست مشکل جدی دارند.
وی میافزاید: یک بررسی دیگر که در موسسه ملی استانداردها و فناوری ایالات متحده انجام شده، نشان میدهد که نرمافزارهای بازشناسی چهره در شناسایی سیاهپوستان و آفریقایی تبارها، نسبت به سفیدپوستان بسیار پر اشتباه هستند. این بدان معنی است که احتمال شناسایی نادقیق و اشتباه افراد سیاهپوست و قهوهای پوست، بالاتر است که این از نظر قانونی میتواند شرایط ناعادلانهای را برای آنان به وجود بیاورد.
به گفته وی، این اشتباهها اگرچه ممکن است عمدی نباشد، اما نتیجه آن سوگیری نژادی خواهد بود که خطرناک و غیر اخلاقی است.
در عین حال، اختلافنظرها در مورد استفاده از فناوری بازشناسی چهره، که به خودی خود امر پیچیدهای است، میتواند عواقب ناخواستهای هم داشته باشد.
کیل کارلسون (Kjell Carlsson) تحلیلگر موسسه فورستر میگوید: این مساله نشان دهنده درک ناکافی عمومی از این فناوری است. عموم مردم معمولا بین فناوریهای بازشناسی چهره، بازشناسی بدن و حرکت، تحلیل چهره، تشخیص چهره، بازشناسی جنس، سن و نژاد، تایید اعتبار بیومتریک و مانند اینها تفاوتی قایل نیستند. همچنین بین خود فناوری و استفاده از آن نیز تفکیک قایل نمیشوند.
وی میافزاید: دقیقا مشخص نیست که مخالفان با چه چیزی و با چه موارد کاربردی از این فناوری مخالفند. در نتیجه، در تمامی زمینهها به مانع برمیخوریم؛ یعنی هم سیاستهای منع سوءاستفاده ناکارآمد خواهد بود و هم جلوی استفادههای مفید گرفته میشود.
کارلسون در این زمینه چند مثال میزند: آیا استفاده از فناوری بازشناسی چهره برای شناسایی قربانیان آدمربایی در نیجریه خوب است یا نه؟ تشخیص اختلالات نادر ژنتیکی در کودکان به کمک تحلیل چهره باید انجام بشود یا نه؟ آیا باید از این فناوری برای دستگیری بمبگذاران ماراتون بوستون استفاده میشد؟
اما باید دانست که به هر حال هر روز این فناوریها به رشد ادامه خواهند داد.
لاولش چابرا (Lovelesh Chhabra) نایب رییس بخش پلتفرمهای اشتراکی در شرکت ورایزون مدیا دراینباره میگوید: وقتی صحبت از شرکتهایی مانند
آیبیام،
مایکروسافت و
آمازون میشود، باید بدانیم که آنها اموری مهمتر از منع فناوری دارند. من امیدوارم که آنها به طراحی بهتر سیستمهای خود بیندیشند، به گونهای که هم حریم خصوصی کاربران حفظ شود و هم به استفاده از این فناوری، در موارد ضروری لطمه وارد نشود.
البته این کار باید با اصولی محکم و دقیق و استانداردهای اخلاقی مشخص صورت بگیرد که صنعت هم به پیروی از این اصول و استانداردها ملزم باشد. نتیجه این پیشبینیها داشتن بنیانی قویتر برای هوش مصنوعی خواهد بود.