چطور اعتبار عکسها و ویدیوها را بسنجیم؟
تاریخ انتشار
سه شنبه ۴ ارديبهشت ۱۴۰۳ ساعت ۱۲:۵۰
آیا تصویر قدیمی است؟
همانطور که بالاتر گفتیم انواع مختلفی از تقلبی بودن وجود دارد. گاهی خود تصویر جعلی نیست اما به روش منحرفکنندهای استفاده شده است. شاید عکسی واقعی از یک منطقه جنگی به عنوان درگیری دیگر منتقل شود، یا صحنهای از یک فیلم به عنوان فیلم مستند ارائه شود.
در این موارد، جستوجوی ناهنجاریها در خود تصویر کمک چندانی نمیکند، اما میتوانید کپیهایی از تصویر را به صورت آنلاین جستوجو کنید. خوشبختانه، ابزارهایی مانند Google Reverse Image Search و TinEye وجود دارد که میتوانند به ما در انجام این کار کمک کنند. اگر به یک تصویر شک دارید، کافی است آن را در یکی از این ابزارها آپلود کنید و ببینید چه چیزی پیش میآید. ممکن است متوجه شوید همان تصویر خانوادهای که در اثر آتشسوزی بیخانمان شده بودند، یا گروهی از سگهای پناهگاه، یا قربانیان یک فاجعه دیگر، سالهاست که در فضای مجازی دست به دست شده است. اتفاقاً وقتی صحبت از جمعآوری کمکهای مالی کاذب میشود، علاوه بر خود تصاویر، باید مراقب چند پرچم قرمز دیگر نیز باشید.
فتوشاپ شده؟
از آنجایی که فتوشاپ مدتهاست وجود دارد، ریاضیدانان، مهندسین و متخصصین تصویر مدتهاست که روی روشهایی برای تشخیص خودکار تصاویر تغییر یافته کار میکنند. برخی از روشهای رایج عبارتند از تجزیه و تحلیل فراداده تصویر و تجزیه و تحلیل سطح خطا ELA)) که برای شناسایی بخشهای تغییر یافته تصویر، مصنوعات فشردهسازی JPEG را بررسی میکند. بسیاری از ابزارهای رایج تجزیه و تحلیل تصویر، مانند Fake Image Detector، از این تکنیکها استفاده میکنند.
با ظهور هوش مصنوعی مولد، ما همچنین شاهد روشهای جدید مبتنی بر هوش مصنوعی برای تشخیص محتوای تولید شدهایم، اما هیچکدام از آنها کامل نیستند. در اینجا برخی از پیشرفتهای مربوطه آمده است: تشخیص شکل گیری چهره. تشخیص تصاویر تولید شده توسط هوش مصنوعی و تعیین مدل هوش مصنوعی مورد استفاده برای تولید آنها. و یک مدل هوش مصنوعی باز برای اهداف مشابه. با تمام این رویکردها، مشکل کلیدی این است که هیچ کدام به شما اطمینان 100٪ در مورد منشأ تصویر نمیدهد، تضمین میکند که تصویر بدون تغییرات است، یا امکان تأیید چنین تغییراتی را فراهم نمیکند.
تایید منشأ محتوا
تصور کنید که روی یک عکس کلیک کردید و چیزی شبیه این را دیدید: «جان این عکس را با آیفون در 20 مارس گرفت»، «کادر را کراپ کرد و روشنایی را در 22 مارس افزایش داد»، «پیتر دوباره این تصویر را با فشرده سازی بالا در 23 مارس ذخیره کرد.»، یا «هیچ تغییری ایجاد نشد» - و جعل همه این دادهها غیرممکن باشد.
این دقیقاً همان چیزی است که ائتلاف برای منشأ و اعتبار محتوا C2PA) ) به دنبال آن است. ائتلاف C2PA شامل برخی از بازیگران اصلی از صنایع کامپیوتر، عکاسی و رسانه از جمله کانن، گوگل، نیکون، سونی، اینتل، ادوبی، بیبیسی و اسوشیتدپرس به همراه حدود یکصد عضو دیگر است. استاندارد C2PA توسعه یافته توسط این ائتلاف در حال حاضر به نسخه 1.3 رسیده است. نیکون در حال برنامهریزی برای ساخت دوربینهای سازگار با C2PA است و بیبیسی اولین مقالات خود را با تصاویر تأیید شده منتشر کرده است. ایده این است که وقتی رسانههای مسوول و شرکتهای بزرگ به انتشار تصاویر به شکل تأیید شده روی میآورند، میتوانید منشأ هر تصویر را مستقیماً در مرورگر بررسی کنید. یک برچسب کوچک «تصویر تایید شده» را میبینید، و هنگامیکه روی آن کلیک میکنید، پنجرهای بزرگتر ظاهر میشود که به شما نشان میدهد چه تصاویری به عنوان منبع استفاده شدهاند و چه ویرایشهایی در هر مرحله قبل از ظاهر شدن تصویر در مرورگر انجام شده است.
این رویکرد فقط برای دوربینها نیست و سرویسهایی چون Dall-E و Midjourney همچنین میتوانند روی خلقهای خود برچسب بزنند.
محدودیتهای طبیعی
متأسفانه امضاهای دیجیتال برای تصاویر یک شبه نمیتواند مشکلات جعلبودگی را حل کند. از اینها گذشته همین الانش میلیاردها تصویر آنلاین وجود دارد که هیچکس امضایشان نکرده. با این وجود با معتبرتر شدن هر چه بیشتر منابع اطلاعات و سوئیچشان به انتشار فقط به سمت تصاویر امضاشده، هر عکس بدون امضای دیجیتال مشکوک تلقی خواهد شد. عکسها و ویدیوهای واقعی با برچسبهای زمانی و دادههای موقعیت مکانی تقریباً محال است جای چیزی دیگری قالب شوند و بدینترتیب محتوای تولیدشده توسط هوش مصنوعی را خیلی راحتتر میشود مورد شناسایی قرار داد.
منبع: کسپرسکی آنلاین
مرجع : کسپرسکی آنلاین