دریافت لینک صفحه با کد QR
پلتفرمها ما را گول میزنند
دیپفیک مشکل فناوری نیست، مساله قدرت است
The Guardian , 3 تير 1398 ساعت 21:51
مولف : اسکار شوارتز
در بحبوحه انتخابات ریاست جمهوری سال 2016 ایالات متحده، کمتر کسی پیشبینی میکرد که اطلاعات نادرست (misinformation) تا این حد میتواند بر روند دموکراسی تاثیر منفی بگذارد. اما حالا در آستانه انتخابات 2020 حساسیت ویژهای درباره تهدیدات جدیدی که اکوسیستم اطلاعات را شکننده کرده است، وجود دارد.
آیتیمن- امروز دیگر باتهای روسی در صدر سیاهه نگرانیها نیستند؛ بلکه جعل عمیق یا دیپفیک جای آنها را گرفته است. جعل عمیق استفاده از هوش مصنوعی برای دستکاری چندرسانهایهاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان میدهند که در واقع چنین حرفی نزدهاند.
اکنون این تهدید جدی گرفته شده است. پنجشنبه گذشته، نخستین جلسه ارایه گزارش کمیته اطلاعات کنگره آمریکا دراینباره برگزار شد و آدام شیف، رییس این کمیته در سخنرانی خود، با بیان اینکه جامعه در معرض یک انقلاب فناورانه است، گفت: این انقلاب به طور موثر شیوه تولید اخبار جعلی را متحول میکند.
او از نوآوریها در هوش مصنوعی گفت که در کارزارهای انتخاباتی به کار گرفته خواهد شد و با الگوریتمهای بهبود یافتهاش، تشخیص اصالت تصاویر، ویدیوها، متون و صوت را بسیار دشوار خواهد کرد.
به طور خلاصه، او مشکل محتواهای رسانهای دستکاری شده را تهدید جدیدی عنوان کرد که فناوریهای پیچیده در حال رشد منجر به ظهور آن شده است.
البته شیف در این نظر تنها نیست. گفتمان گستردهتری درباره محتوای جعلی با تمرکز بر محتواهای تولید شده با هوش مصنوعی ایجاد شده است؛ یعنی درباره استفاده از تکنیکهای پیشرفته یادگیری ماشینی به منظور ایجاد کپیهای غیر واقعی از چهره، صدا یا دستخط افراد. اگرچه این دستاوردهای فناورانه بسیار جذاب هستند؛ این نگرانی وجود دارد که شیفته جذابیت این فناوری شویم و از درک مشکل عمیقی که ایجاد میکند، غافل بمانیم.
برای درک بهتر موضوع، آخرین نمونه از دستکاری رسانهای که از یک فرد سطح بالا در فضای آنلاین منتشر شده را به یاد بیاورید: ویدیویی ساختگی از نانسی پلوسی، سخنگوی کنگره که او را مشغول صحبت کردن در حال مستی نشان میدهد. تازه این ویدیو به دست متخصصان هوش مصنوعی و به عنوان بخشی از آن انقلاب فناورانه ساخته نشده، بلکه صرفا حاصل ویرایش و کند کردن ویدیوی صحبتهای پلوسی به دست یک بلاگر طرفدار ترامپ به نام شان بروکس است.
دلیل اینکه این ویدیو تا این حد گسترده بازنشر شده، این نیست که از نظر فناوری کار پیشرفتهای بوده یا از نظر بصری گمراه کننده بوده است؛ بلکه این اتفاق در نتیجه طبیعت شبکههای اجتماعی رخ داده است. وقتی مدل کسبوکار یک پلتفرم به حداکثر رساندن زمان درگیری مخاطب با محتوا به منظور کسب درآمد از نمایش آگهی باشد، محتوای تفرقهانگیز، شوکآور و توطئهآمیز در صدر خوراکهای خبری این رسانهها قرار میگیرد. هنر بروکس نیز مانند بقیه ترولهای اینترنتی، درک و استفاده از این ویژگی بوده است.
در واقع ویدیوی پلوسی نشان میدهد که اخبار جعلی و پلتفرمهای اجتماعی ارتباطی دوجانبه پیداکرده و به هم وابسته شدهاند. فیسبوک به حذف این ویدیوی دستکاری شده تن نداد و اعلام کرد که بر اساس سیاستهای محتواییاش، واقعی بودن ویدیوها ضروری نیست. (البته این شبکه اجتماعی در تلاش برای به حداقل رساندن آسیبها، سطح انتشار این ویدیو را در فیدهای خبریاش محدود کرد.) واقعیت این است که محتواهای تفرقه انگیز از جنبه مالی برای پلتفرمهای شبکه اجتماعی برد محسوب میشوند و تا زمانی که این منطق کسبوکار حاکم بر حیات آنلاین ما باشد، جاعلان محتواهای بدبینانه به جعل و انتشار این محتواهای تفرقهانگیز ادامه میدهند، حال چه با استفاده از یادگیری ماشین و چه بدون آن.
مشکل نیز همینجا نهفته است: با معرفی کردن جعل عمیق به عنوان یک مشکل فناورانه، به پلتفرمهای شبکه اجتماعی اجازه میدهیم که به ارایه و تبلیغ راهکارهای فناورانه خود برای این مشکل بپردازند و با هوشمندی، توجه عموم را از این واقعیت دور کنند که مشکلات اصلی و پایهای، قدرت بیش از حد پلتفرمهای فناوری سیلیکون ولی است.
قبلا هم این اتفاق افتاده است. پارسال، زمانی که کنگره مارک زاکربرگ را برای پاسخگویی درباره مشکلات حریم خصوصی و دخالت داشتن فیسبوک در انتشار اخبار جعلی فراخواند، زاکربرگ به جای پرداختن به مشکلات ساختاری موجود در شرکتاش، سعی کرد به کنگره اطمینان بدهد که راهکارهای فناورانه در آیندهای که مشخص نیست کی فرامیرسد، برای همه مشکلات راهکار ارایه خواهد داد. زاکربرگ در آن جلسه بیش از 30 بار از هوش مصنوعی، به عنوان حلال مشکلات، نام برد.
با توجه به همه اینهاست که یوگنی موروزوف، پدیده راهکارگرایی فناورانه (technological solutionism) را مطرح میکند. منظور او ایدئولوژی حاکم بر سیلیکون ولی است که سعی دارد مسایل پیچیده اجتماعی را به صورت مسایلی شستهو رفته با راهکارهای عملیاتی و قطعی مطرح کند که در آنها هر مشکلی در صورت داشتن یک الگوریتم مناسب، قابل حل است. این طرز تفکر به شدت روشمند، قراردادی و در عین حال از نظر اجتماعی کوته نظرانه، آنچنان درون صنعت فناوری پرطرفدار و فراگیر است که به نوعی خصلت ژنتیک این صنعت تبدیل شده و هر سوالی را با آن پاسخ میدهند: «چطور مشکل نابرابری ثروت را حل کنیم؟ با بلاکچین»؛ «چطور مشکل دوقطبیها را در سیاست حل کنیم؟ با هوش مصنوعی» یا «چطور مشکل تغییرات آبوهوایی را حل کنیم؟ با بلاکچین مبتنی بر هوش مصنوعی» ...
این اشتیاق و انتظار دایمیبرای راهکارهای فناورانه که قرار است در آینده نزدیک ارایه شود، ما را از توجه به واقعیتهای تلخی که هم اکنون با آنها درگیریم، باز میدارد. زاکربرگ سال گذشته در برابر کنگره، به ما وعده مدیریت بهتر محتوا را با استفاده از هوش مصنوعی داد، اما از آن پس گزارشهای متعدد حاکی از این است که مدیریت محتوا در این شرکت همچنان متکی به نیروی انسانی است که هر روزه با محتواهای خشونتبار، شوکهکننده و نفرتانگیز مواجهند و شرایط کاری بسیار سختی دارند و فیسبوک با صحبت کردن بیوقفه درباره مدیریت محتوا با هوش مصنوعی، عملا ذهنها را از شرایط سخت این انسانهای واقعی منحرف میکند.
ایدیولوژی راهکارگرایی فناورانه، بر گفتمان مربوط به شیوه مواجهه با محتواهای رسانهای دستکاری شده نیز اثر میگذارد. راهکارهایی که ارایه میشود، عمدتا ماهیت فناورانه دارند؛ از واترمارکهای دیجیتال گرفته تا تکنیکهای جدید بازرسی مبتنی بر یادگیری ماشین. مطمئنا کارشناسان متعددی به تحقیقات امنیتی با اهمیتی برای شناسایی محتواهای جعلی درآینده مشغولند. این کاری ضروری است، اما لزوما به حل مشکل عمیق اجتماعی فروپاشی حقیقت و قطبیسازی که پلتفرمهای رسانههای اجتماعی سودهای کلانی از آن میبرند و در آن نقش دارند، نمیانجامد.
بزرگترین نقطه ضعف راهکارگرایی فناورانه، یکی این است که میتوان از آن برای پنهان کردن مشکلات عمیق ساختاری در صنعت فناوری استفاده کرد. همچنین این ایدئولوژی میتواند مانعی جدی در برابر کنشگرانی باشد که با تمرکز قدرت در دست شرکتهایی که شیوه دسترسی ما به اطلاعات را کنترل میکنند، مخالف هستند.
اگر ما همچنان دیپفیک را به جای یک مفسده اساسی در قلب اقتصاد توجه (attention economy)، به عنوان یک مشکل فناورانه جا بزنیم، خودمان را در انتخابات 2020 نیز در معرض بلای اطلاعات نادرست قرار دادهایم؛ همان بلایی که در سال 2016 سرمان آمد.
اسکار شوارتز نویسنده مستقل و محقق ساکن نیویورک آمریکاست
کد مطلب: 272319
ITMen
https://www.itmen.ir