۰
نگرانی‌های اخلاقی از آزمایش‌های هوش مصنوعی اسرائیل روی مردم غزه

وقتی فناوری عامل کشتار می‌شود

تاریخ انتشار
شنبه ۶ ارديبهشت ۱۴۰۴ ساعت ۰۹:۴۷
وقتی فناوری عامل کشتار می‌شود
وقتی فناوری عامل کشتار می‌شود
آی‌تی‌من- به گفته سه مقام اسرائیلی و آمریکایی مطلع از این رویدادها، افسران اسرائیلی به یک فناوری نظامی ‌جدید مبتنی بر هوش مصنوعی روی آوردند. این فناوری ده سال قبل توسعه یافته بود اما هرگز در میدان نبرد استفاده نشده بود. یافتن بیاری انگیزهای جدید برای بهبود این ابزار ایجاد کرد، بنابراین مهندسان واحد ۸۲۰۰ اسرائیل (معادل آژانس امنیت ملی این رژیم) به‌سرعت هوش مصنوعی را به آن اضافه کردند.

پس از آن، اسرائیلی‌ها با استفاده از این ابزار هوش مصنوعی که موقعیت تقریبی تماس‌های بیاری را مشخص می‌کرد، محل او را ردیابی کردند. با استفاده از این اطلاعات، اسرائیل در ۳۱ اکتبر ۲۰۲۳ حملات هوایی را علیه آن منطقه انجام داد که منجر به شهادت بیاری شد. بر اساس گزارش «ایروارز»، یک نهاد نظارتی مستقر در لندن، بیش از ۱۲۵ غیرنظامی‌ نیز در این حمله کشته شدند.

این ابزار صوتی تنها نمونه‌ای از استفاده اسرائیل از جنگ غزه برای آزمایش فناوری‌های نظامی‌ مبتنی بر هوش مصنوعی در سطحی بی‌سابقه بود.

در ۱۸ ماه گذشته، اسرائیل از هوش مصنوعی همراه با نرم‌افزار تشخیص چهره برای تطبیق چهره‌های نیمه‌پوشیده یا مجروح با هویت واقعی افراد استفاده کرده، از هوش مصنوعی برای تهیه فهرست اهداف بالقوه حملات هوایی بهره برده و یک مدل هوش مصنوعی زبان عربی ایجاد کرده تا یک چت‌بات را برای اسکن و تحلیل پیام‌های متنی، پست‌های شبکه‌های اجتماعی و سایر داده‌های عربی تقویت کند.

به گفته سه منبع مطلع، بسیاری از این تلاش‌ها حاصل همکاری بین سربازان واحد ۸۲۰۰ و سربازان ذخیره‌ای بود که در شرکتهای فناوری مانند گوگل، مایکروسافت و متا کار می‌کردند. واحد ۸۲۰۰ مرکزی به نام «استودیو» ایجاد کرد که یک مرکز نوآوری برای هماهنگی متخصصان با پروژه‌های هوش مصنوعی است.

با این حال، مقامات اسرائیلی و آمریکایی گفتند که با وجود تلاش اسرائیل برای توسعه زرادخانه هوش مصنوعی، استفاده از این فناوری‌ها گاهی منجر به شناسایی‌ها و دستگیری‌های اشتباه و همچنین کشته شدن غیرنظامیان شده است.



به گزارش نیویورک تایمز، مقامات دفاعی اروپایی و آمریکایی می‌گویند که هیچ کشوری به اندازه اسرائیل در آزمایش ابزارهای هوش مصنوعی در نبردهای واقعی فعال نبوده است. این مساله نشان می‌دهد این فناوری‌ها چگونه ممکن است در جنگ‌های آینده استفاده شوند و چگونه ممکن است منحرف شوند.

هاداس لوربر، رئیس مؤسسه تحقیقات کاربردی هوش مصنوعی مسوولانه در مؤسسه فناوری هولون اسرائیل و مدیر ارشد سابق شورای امنیت ملی رژیم صهیونیستی هشدار داد که این فناوری‌ها «سؤالات اخلاقی جدی نیز ایجاد می‌کنند» و افزود که هوش مصنوعی نیاز به نظارت و تعادل دارد و انسان‌ها باید تصمیمات نهایی را بگیرند.

یک سخنگوی ارتش اسرائیل گفت که به دلیل «ماهیت محرمانه» این فناوری‌ها نمی‌تواند در مورد جزئیات آنها اظهارنظر کند. وی مدعی شد که اسرائیل «متعهد به استفاده قانونی و مسوولانه از ابزارهای فناوری داده است» و ارتش در حال بررسی حمله به بیاری است و «تا تکمیل تحقیقات نمیتواند اطلاعات بیشتری ارائه دهد.»

متا و مایکروسافت نیز از اظهارنظر خودداری کردند و گوگل گفت «کارمندانی دارد که در کشورهای مختلف خدمت انجام می‌دهند و کار این کارمندان به گوگل مرتبط نیست.»

اسرائیل پیش از این نیز از درگیری‌های غزه و لبنان برای آزمایش و پیشبرد ابزارهای فناوری نظامی‌خود مانند پهپادها، ابزارهای هک تلفن و سیستم دفاعی گنبد آهنین استفاده کرده بود.

اوی حسون، مدیرعامل «استارت‌آپ نیشن سنترال»، یک سازمان غیرانتفاعی اسرائیلی که سرمایه‌گذاران را با شرکت‌ها مرتبط می‌کند، گفت که کارکنان متا، گوگل و مایکروسافت در پیشبرد نوآوری در پهپادها و ادغام داده‌ها نقش کلیدی داشتند.

او گفت: این نیروها دانش فنی و دسترسی به فناوری‌های کلیدی را آوردند که در ارتش موجود نبود.

 
برچسب ها :
کد مطلب : ۲۸۴۷۲۸
ارسال نظر
نام شما

آدرس ايميل شما