دریافت لینک صفحه با کد QR
چگونه استفاده از مدلهای زبانی بزرگ برای تقلب را کاهش دهیم
گاردین , 8 آذر 1401 ساعت 12:12
والدین و معلمان در سراسر جهان از بازگشت دانشآموزان به کلاسهای درس خوشحالند. اما بدون اینکه بدانند، یک تهدید آکادمیک جدید به طور موذیانهای راه خود را به سیستمهای آموزشی باز کرده است: انقلاب هوش مصنوعی، موجب خلق ابزارهای جدید و قدرتمندی برای نوشتن خودکار شده است؛ ابزارهایی که برای تقلب در نوشتن مقالات در مدرسه و دانشگاه بهینهسازی شدهاند
راب رایش*
البته، تقلب همیشه وجود داشته و بازی موش و گربه بین دانشآموز و معلم، ابدی است. اما در گذشته، دانشآموز متقلب مجبور بود به کسی پول بدهد تا برای او مقاله بنویسد، یا مقالهای را از وب دانلود کند که به راحتی توسط نرمافزار سرقت ادبی قابل شناسایی بود. حال اینکه فناوریهای جدید تولید زبان هوش مصنوعی، تولید مقالات با کیفیت بالا را تسهیل کردهاند.
با پیشرفت فناوریهای هوش مصنوعی، حالا با یک سیستم یادگیری ماشینی قدرتمند به نام «مدل بزرگ زبانی» مواجهیم که کافی است به آن یک فرمان داده شود تا پاراگرافهایی کاملا منحصر به فرد تولید کند. این مدلها قادر به تولید انواع خروجی، از مقاله گرفته تا پستهای وبلاگ، شعر و حتی کدهای کامپیوتری هستند.
این سیستمهای یادگیری ماشینی چند سال قبل توسط محققان هوش مصنوعی توسعه داده شدند و از ابتدا نیز نگرانی و احتیاط را نزد محققان برانگیختند. OpenAI، اولین شرکتی که چنین مدلهایی را توسعه داد، استفاده خارجی آنها را محدود کرد و کد منبع جدیدترین مدل خود را هم منتشر نکرد؛ زیرا نگران سوء استفاده احتمالی از آن بود. شرکت OpenAI اکنون یک خط مشی جامع متمرکز بر استفادههای مجاز و تعدیل محتوا برای این سیستم تدوین کرده است.
اما با شروع مسابقه تجاریسازی این فناوری، این اقدامات احتیاطی در کل صنعت جدی گرفته نشده است. در شش ماه گذشته، تولید نسخههای تجاری از این ابزارهای قدرتمند هوش مصنوعی با کاربری آسان افزایش یافته و استفاده از بسیاری از آنها یا بدون محدودیت امکانپذیر است، یا محدودیتهای اندکی دارد.
یکی از شرکتها اعلام کرده که هدفشاش، بهکارگیری فناوری پیشرفته هوش مصنوعی به منظور تسهیل نوشتن است. یکی دیگر اپلیکیشنی برای گوشیهای هوشمند منتشر کرده که میتواند در مورد موضوعات متنوع، مثلا درباره موضوع نمایشنامه مکبث، مقاله تولید کند. به اسامی این شرکتها اشاره نمیکنیم چون نمیخواهیم کار را برای متقلبها آسان کنیم. اما این یافتن این برنامهها کاری آسان است و اغلب، لااقل فعلا، استفاده از آنها هزینهای ندارد. به این ترتیب، نوشتن مقالهای تر و تمیز و منحصر به فرد درمورد هملت یا دلایل وقوع جنگ جهانی اول، به سادگی تمام و فقط با چند کلیک، قابل انجام است.
در حالی که مهم است که والدین و معلمان در مورد این ابزارهای جدید تقلب آگاهی داشته باشند، واقعیت این است که کار زیادی نمیتوانند در مورد آن انجام دهند. تقریباً غیرممکن است که بچهها را از دسترسی به این فناوریهای جدید منع کرد، مدارس هم قابلیت تشخیص استفاده از آنها را ندارند. این مشکل را حتی نمیتوان به ضعف دولت در مقرراتگذاری نسبت داد. دولتها هماکنون نیز، هرچند با سرعت کم، برای رسیدگی به سوءاستفاده از هوش مصنوعی در حوزههای مختلف، مثلا در حوزه استخدام کارکنان یا فناوری بازشناسی چهره، وارد عمل شدهاند؛ اما شناخت چندانی در مورد مدلهای زبانی و نحوه مقرراتگذاری برای جلوگیری از آسیبهای احتمالی این مدلها ندارند.
در این شرایط، راه حل این است که شرکتهای فناوری و جامعه توسعه دهندگان هوش مصنوعی وادار به پذیرش یه چارچوب مسوولیت اخلاقی شوند. بر خلاف حقوق یا پزشکی، هنوز استانداردهای جهانشمول به رفتار مسوولانه در حوزه فناوری تدوین نشده است. البته الزامات قانونی محدودی برای استفاده سودمند از فناوری وجود دارد. در حوزه حقوق و پزشکی، استانداردها محصول تصمیمات عمدی پزشکان پیشرو برای اتخاذ شکلی از خود تنظیمی بوده است. در مورد فناوری نیز شرکتها میتوانند یک چارچوب مشترک برای توسعه، استقرار یا انتشار مسوولانه مدلهای زبان ایجاد کنند تا اثرات مضر آنها را کاهش دهند.
اما شرکتها برای ترویج کاربردهای اجتماعی مفید و جلوگیری از کاربریهای منفی (مانند استفاده از یک تولید کننده متن برای تقلب در مدرسه) چه کاری میتوانند انجام بدهند؟
چند راهکار مشخص وجود دارد. شاید تمام متنهای تولید شده توسط مدلهای زبانی تجاری موجود را بتوان در یک مخزن مستقل قرار داد تا امکان تشخیص سرقت ادبی فراهم شود. مورد دوم، قرار دادن محدودیت سنی و سیستمهای تأیید سن است تا جلوی استفاده دانشآموزان از این نرمافزارها گرفته شود. در نهایت، و البته با دیدی بلندپروازانهتر، توسعهدهندگان پیشرو هوش مصنوعی میتوانند یک هیات بازبینی مستقل ایجاد کنند که چگونگی انتشار مدلهای زبانی را مشخص کند و به جای سرعت بخشیدن به تجاریسازی، دسترسی به محققان مستقلی را که میتوانند به ارزیابی خطرات و پیشنهاد استراتژیهای کاهش کمک کنند، اولویت دهد.
*استاد علوم سیاسی در دانشگاه استنفورد
کد مطلب: 280329
ITMen
https://www.itmen.ir