هوش مصنوعی میتواند باور به تئوری توطئه را تغییر دهد
تاریخ انتشار
سه شنبه ۲۷ شهريور ۱۴۰۳ ساعت ۱۰:۵۰
آیتیمن- دکتر توماس کاستلو، یکی از نویسندگان مطالعهای که در این زمینه انجام شده است، گفت: باور رایج این است که افراد معتقد به تئوریهای توطئه، به ندرت دیدگاهشان را تغییر میدهند. تصور میشود این امر به دلیل نیازهای مختلف افراد به چنین باورهایی است. با این حال، مطالعه جدید دیدگاه متفاوتی ارائه میدهد.
محققان اعلام کردند یک سیستم هوش مصنوعی میتواند با استفاده از طیف وسیعی از اطلاعات، گفتوگوهایی را تولید کند که تفکر انتقادی را تشویق کرده و استدلالهای مبتنی بر واقعیت ارائه دهد.
کاستلو گفت: هوش مصنوعی ما از قبل میدانست که فرد به چه چیزی باور دارد و به همین دلیل توانست روش متقاعد کردن خود را با سیستم اعتقادی دقیق او تنظیم کند.
کاستلو و همکارانش در مجله Science گزارش دادند که چگونه مجموعهای از آزمایشها را با مشارکت 2190 نفر که به تئوریهای توطئه باور داشتند انجام دادند.
در این آزمایشها از همه شرکتکنندگان خواسته شد تا یک تئوری توطئه خاص را که به آن اعتقاد داشتند و شواهدی که فکر میکردند از آن حمایت میکند، توصیف کنند. این توصیفها سپس به یک سیستم هوش مصنوعی به نام «DebunkBot» داده شد.
همچنین از شرکتکنندگان خواسته شد تا در یک مقیاس 100 امتیازی میزان صحت تئوری توطئه را ارزیابی کنند.
سپس آنها آگاهانه یک گفتوگوی سه دورهای با سیستم هوش مصنوعی در مورد تئوری توطئه خود یا یک موضوع غیر توطئه انجام دادند. پس از آن، شرکتکنندگان بار دیگر میزان صحت تئوری توطئه خود را ارزیابی کردند.
نتایج نشان داد که کسانی که در مورد موضوعات غیر توطئه بحث کردند، پس از آن رتبه «حقیقت» خود را کمی کاهش دادند. با این حال، کسانی که با هوش مصنوعی در مورد تئوری توطئه خود بحث کردند، به طور متوسط، 20 درصد کاهش در باور خود به آن موضوع را گزارش کردند.
تیم تحقیقاتی اعلام کرد که به نظر میرسد اثرات این گفتگو حداقل دو ماه ادامه خواهد داشت.
محققان افزودند که اندازه اثر به عواملی مانند اهمیت باور برای شرکتکننده و اعتماد او به هوش مصنوعی بستگی دارد.
کاستلو گفت: حدود یک نفر از هر چهار نفری که آزمایش را با باور به یک تئوری توطئه آغاز کردند، در حالی آزمایش را به پایان رساندند که دیگر به آن تئوری توطئه باور نداشتند.
محققان اعلام کردند یک سیستم هوش مصنوعی میتواند با استفاده از طیف وسیعی از اطلاعات، گفتوگوهایی را تولید کند که تفکر انتقادی را تشویق کرده و استدلالهای مبتنی بر واقعیت ارائه دهد.
کاستلو گفت: هوش مصنوعی ما از قبل میدانست که فرد به چه چیزی باور دارد و به همین دلیل توانست روش متقاعد کردن خود را با سیستم اعتقادی دقیق او تنظیم کند.
کاستلو و همکارانش در مجله Science گزارش دادند که چگونه مجموعهای از آزمایشها را با مشارکت 2190 نفر که به تئوریهای توطئه باور داشتند انجام دادند.
در این آزمایشها از همه شرکتکنندگان خواسته شد تا یک تئوری توطئه خاص را که به آن اعتقاد داشتند و شواهدی که فکر میکردند از آن حمایت میکند، توصیف کنند. این توصیفها سپس به یک سیستم هوش مصنوعی به نام «DebunkBot» داده شد.
همچنین از شرکتکنندگان خواسته شد تا در یک مقیاس 100 امتیازی میزان صحت تئوری توطئه را ارزیابی کنند.
سپس آنها آگاهانه یک گفتوگوی سه دورهای با سیستم هوش مصنوعی در مورد تئوری توطئه خود یا یک موضوع غیر توطئه انجام دادند. پس از آن، شرکتکنندگان بار دیگر میزان صحت تئوری توطئه خود را ارزیابی کردند.
نتایج نشان داد که کسانی که در مورد موضوعات غیر توطئه بحث کردند، پس از آن رتبه «حقیقت» خود را کمی کاهش دادند. با این حال، کسانی که با هوش مصنوعی در مورد تئوری توطئه خود بحث کردند، به طور متوسط، 20 درصد کاهش در باور خود به آن موضوع را گزارش کردند.
تیم تحقیقاتی اعلام کرد که به نظر میرسد اثرات این گفتگو حداقل دو ماه ادامه خواهد داشت.
محققان افزودند که اندازه اثر به عواملی مانند اهمیت باور برای شرکتکننده و اعتماد او به هوش مصنوعی بستگی دارد.
کاستلو گفت: حدود یک نفر از هر چهار نفری که آزمایش را با باور به یک تئوری توطئه آغاز کردند، در حالی آزمایش را به پایان رساندند که دیگر به آن تئوری توطئه باور نداشتند.