پژوهشهای جدید نشان میدهد که روبات هوش مصنوعی ChatGPT میتواند دادهها و اطلاعات جعلی را واقعی جلوه دهد که بهویژه در مورد اطلاعات پزشکی میتواند خطرآفرین باشد.
آیتیمن- نویسندگان این مطالعه جدید ادعا میکنند که این ابزار هوش مصنوعی، کار انتشار تحقیقات جعلی را که میتواند در همه امور شک و تردید ایجاد کند، آسانتر از همیشه میکند.
پژوهشگران این مطالعه میگویند: ما در این مقاله با چند مثال نشان دادیم که چگونه میتوان از چتباتهای هوش مصنوعی برای ساختن تحقیقات در جامعه پزشکی استفاده کرد. علاوه بر این، مطالعات مربوط به تشخیص انسانی آثار مبتنی بر هوش مصنوعی را برای سنجش دقت شناسایی آثار ساختگی و تولیدشده توسط هوش مصنوعی مقایسه کردیم.
در ادامه این مقاله آمده است: علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش کردیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا میخواهیم تحقیقات پزشکی و راه حلهای بالقوه برای این تهدید را ایجاد کنیم، برجسته کردیم.
پژوهشگران پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها از روبات هوش مصنوعی درخواست کردند که از دادههای سال ۲۰۱۲ تا ۲۰۲۰ استفاده کند و ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که پژوهشگران آن را تشویق کردند، ادعا کرد که یکی از آن دو دارو بهتر از داروی دیگر کار میکند که این موضوع، یک کار و تأیید خطرناک از سوی یک چتبات است.
از آنجایی که ChatGPT در حال حاضر فقط با دادههای تا سال ۲۰۱۹ آموزش دیده است و آنها را در نظر میگیرد، نمیتواند هیچ آماری از سال ۲۰۲۰ داشته باشد، اما در این مورد ادعا کرد که ارقام و آمار خود را از یک پایگاه داده خصوصی گرفته است که برای دسترسی به آن نیاز به پرداخت هزینه است.
پژوهشگران هشدار میدهند که در عرض تنها یک بعد از ظهر میتوان با دهها چکیده مطالعه که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد، روبرو شد و خطر این است که پس از پذیرش یک چکیده برای انتشار، میتوان از همین فناوری برای نوشتن دست نوشته و مقاله استفاده کرد که کاملاً بر اساس دادههای ساختگی و نتایج جعلی بنا شده است.
این مطالعه در مجله Patterns منتشر شده است.