دریافت لینک صفحه با کد QR
چطور اعتبار عکسها و ویدیوها را بسنجیم؟
کسپرسکی آنلاین , 4 ارديبهشت 1403 ساعت 12:50
در طول 18 ماه گذشته گویی دیگر تواناییمان را در تشخیص درستی چیزی که به چشم میبینیم از دست دادهایم. البته فتوشاپهای تقلبی جدید نیستند اما ورود هوش مصنوعی، ماجرای جعل و تقلب به سطح و شکل جدیدی به خود گرفته است. شاید اولین مورد فیک که وایرال شد تصویر سال 2023 پاپ بود که پافر سفیدرنگ به تن داشت اما از آن تاریخ به بعد تعداد گولزنکهای بصری دارد بیشتر و بیشتر میشود. با توجه به رشد و پیشرفت بیشتر هوش مصنوعی میتوان در آینده نزدیک شاهد ویدیوهای فیک واقعیتر و متقاعدکنندهتر بود. جعل تصویر و ویدیو تأثیر مستقیم بر امنیت سایبری دارد. اسکمرها برای فریب قربانیان سالهاست دست به جعل تصویر و ویدیو میزنند و از این راه مردم را تلکه میکنند. آنها ممکن است تصویر یک توله سگ غمگین را که به ادعایشان به کمک نیاز دارد، تصویر یک فرد مشهور که برخی از طرحهای مشکوک را تبلیغ میکند، یا حتی تصویری از کارت اعتباری که میگویند متعلق به کسی است که شما میشناسید برایتان بفرستند. پیچیدهترین اسکمها ویدیوها و فایلهای صوتی دیپفیک رئیس یا خویشاوندان قربانی استفاده میکنند تا بدینترتیب بتوانند آنها را مجبور به اطاعت از دستورات خود کنند. همین اواخر، کارمند یک موسسه مالی فریب داده شد و 25 میلیون دلار دو دستی تقدیم مجرمان سایبری کرد. آنها یک تماس ویدیویی فیک با CFO و همکاران قربانی برقرار کرده بودند. پس برای مقابله با دیپ فیک یا جعل ساده چه میتوان کرد؟ چگونه میتوان آنها را شناسایی کرد؟ این مشکلی است بس پیچیده که اما با ردیاب منشاء تصویر میشود پله پله حلش کرد.
آیا تصویر قدیمی است؟
همانطور که بالاتر گفتیم انواع مختلفی از تقلبی بودن وجود دارد. گاهی خود تصویر جعلی نیست اما به روش منحرفکنندهای استفاده شده است. شاید عکسی واقعی از یک منطقه جنگی به عنوان درگیری دیگر منتقل شود، یا صحنهای از یک فیلم به عنوان فیلم مستند ارائه شود.
در این موارد، جستوجوی ناهنجاریها در خود تصویر کمک چندانی نمیکند، اما میتوانید کپیهایی از تصویر را به صورت آنلاین جستوجو کنید. خوشبختانه، ابزارهایی مانند Google Reverse Image Search و TinEye وجود دارد که میتوانند به ما در انجام این کار کمک کنند. اگر به یک تصویر شک دارید، کافی است آن را در یکی از این ابزارها آپلود کنید و ببینید چه چیزی پیش میآید. ممکن است متوجه شوید همان تصویر خانوادهای که در اثر آتشسوزی بیخانمان شده بودند، یا گروهی از سگهای پناهگاه، یا قربانیان یک فاجعه دیگر، سالهاست که در فضای مجازی دست به دست شده است. اتفاقاً وقتی صحبت از جمعآوری کمکهای مالی کاذب میشود، علاوه بر خود تصاویر، باید مراقب چند پرچم قرمز دیگر نیز باشید.
فتوشاپ شده؟
از آنجایی که فتوشاپ مدتهاست وجود دارد، ریاضیدانان، مهندسین و متخصصین تصویر مدتهاست که روی روشهایی برای تشخیص خودکار تصاویر تغییر یافته کار میکنند. برخی از روشهای رایج عبارتند از تجزیه و تحلیل فراداده تصویر و تجزیه و تحلیل سطح خطا ELA)) که برای شناسایی بخشهای تغییر یافته تصویر، مصنوعات فشردهسازی JPEG را بررسی میکند. بسیاری از ابزارهای رایج تجزیه و تحلیل تصویر، مانند Fake Image Detector، از این تکنیکها استفاده میکنند.
با ظهور هوش مصنوعی مولد، ما همچنین شاهد روشهای جدید مبتنی بر هوش مصنوعی برای تشخیص محتوای تولید شدهایم، اما هیچکدام از آنها کامل نیستند. در اینجا برخی از پیشرفتهای مربوطه آمده است: تشخیص شکل گیری چهره. تشخیص تصاویر تولید شده توسط هوش مصنوعی و تعیین مدل هوش مصنوعی مورد استفاده برای تولید آنها. و یک مدل هوش مصنوعی باز برای اهداف مشابه. با تمام این رویکردها، مشکل کلیدی این است که هیچ کدام به شما اطمینان 100٪ در مورد منشأ تصویر نمیدهد، تضمین میکند که تصویر بدون تغییرات است، یا امکان تأیید چنین تغییراتی را فراهم نمیکند.
تایید منشأ محتوا
تصور کنید که روی یک عکس کلیک کردید و چیزی شبیه این را دیدید: «جان این عکس را با آیفون در 20 مارس گرفت»، «کادر را کراپ کرد و روشنایی را در 22 مارس افزایش داد»، «پیتر دوباره این تصویر را با فشرده سازی بالا در 23 مارس ذخیره کرد.»، یا «هیچ تغییری ایجاد نشد» - و جعل همه این دادهها غیرممکن باشد.
این دقیقاً همان چیزی است که ائتلاف برای منشأ و اعتبار محتوا C2PA) ) به دنبال آن است. ائتلاف C2PA شامل برخی از بازیگران اصلی از صنایع کامپیوتر، عکاسی و رسانه از جمله کانن، گوگل، نیکون، سونی، اینتل، ادوبی، بیبیسی و اسوشیتدپرس به همراه حدود یکصد عضو دیگر است. استاندارد C2PA توسعه یافته توسط این ائتلاف در حال حاضر به نسخه 1.3 رسیده است. نیکون در حال برنامهریزی برای ساخت دوربینهای سازگار با C2PA است و بیبیسی اولین مقالات خود را با تصاویر تأیید شده منتشر کرده است. ایده این است که وقتی رسانههای مسوول و شرکتهای بزرگ به انتشار تصاویر به شکل تأیید شده روی میآورند، میتوانید منشأ هر تصویر را مستقیماً در مرورگر بررسی کنید. یک برچسب کوچک «تصویر تایید شده» را میبینید، و هنگامیکه روی آن کلیک میکنید، پنجرهای بزرگتر ظاهر میشود که به شما نشان میدهد چه تصاویری به عنوان منبع استفاده شدهاند و چه ویرایشهایی در هر مرحله قبل از ظاهر شدن تصویر در مرورگر انجام شده است.
این رویکرد فقط برای دوربینها نیست و سرویسهایی چون Dall-E و Midjourney همچنین میتوانند روی خلقهای خود برچسب بزنند.
محدودیتهای طبیعی
متأسفانه امضاهای دیجیتال برای تصاویر یک شبه نمیتواند مشکلات جعلبودگی را حل کند. از اینها گذشته همین الانش میلیاردها تصویر آنلاین وجود دارد که هیچکس امضایشان نکرده. با این وجود با معتبرتر شدن هر چه بیشتر منابع اطلاعات و سوئیچشان به انتشار فقط به سمت تصاویر امضاشده، هر عکس بدون امضای دیجیتال مشکوک تلقی خواهد شد. عکسها و ویدیوهای واقعی با برچسبهای زمانی و دادههای موقعیت مکانی تقریباً محال است جای چیزی دیگری قالب شوند و بدینترتیب محتوای تولیدشده توسط هوش مصنوعی را خیلی راحتتر میشود مورد شناسایی قرار داد.
منبع: کسپرسکی آنلاین
کد مطلب: 283022
ITMen
https://www.itmen.ir