پنتاگون به استفاده از روباتهای خودمختار نظامی نزدیکتر شد
تاریخ انتشار
سه شنبه ۲۱ ارديبهشت ۱۴۰۰ ساعت ۱۱:۳۶
تعداد روباتها در این عملیات آنقدر زیاد بود که هیچ اپراتور انسانی نمیتوانست همه آنها را تحت نظر داشته باشد. بنابراین به این روباتها دستوراتی داده شد که به صورت خودکار، دشمنان مسلح را بیابند و در صورت لزوم، بکشند.
این عملیات، البته صرفا تمرینی بود که از سوی آژانس پروژههای پژوهشی پیشرفته دفاعی (دارپا) وابسته به پنتاگون ترتیب داده شده بود.
روباتها در این عملیات به سلاحهای کشنده مجهز نبودند و صرفا از فرستندههای رادیویی بهره میبردند که به منظور شبیهسازی کنش و واکنشها بین آنها و روباتهای دوست و دشمن طراحی شده بود.
این عملیاتی، یکی از چندین عملیاتی بود که تابستان گذاشته، برای آزمایش کاربرد هوش مصنوعی در خودکارسازی سیستمهای نظامی ترتیب داده شده بود و شامل چندین سناریوی پیچیده و سریع بود که حضور در آنها و اتخاد تصمیمات سریع از سوی نیروهای انسانی، کار دشواری است.
این عملیات نمایشی همچنین حاکی از تغییر در شیوه تفکر پنتاگون درباره سلاحهای خودمختار بود و نشان داد که چنین ابزارهایی میتوانند در زمینه عملکرد در موقعیتهای پیچیده بهتر یا با سرعت بالاتری عمل کنند.
ژنرال جان موری (John Murray) فرمانده واحد فرماندهی آینده ارتش آمریکا (United States Army Futures Command) ماه گذشته در آکادمی ارتش ایالات متحده گفت که با وجود انبوه روباتها، حالا برنامهریزان، سیاستگذاران و جامعه نظامی آمریکا ناگزیرند به این بیندیشند که آیا اتخاذ تمامی تصمیمات درباره استفاده از قوای مهلک توسط سیستمهای خودمختار جدید، باید به عهده انسان باشد یا نه.
اظهارات سایر فرماندهان نظامی نیز نشان دهنده علاقه آنها به اعطای ماموریتهای بیشتر به سیستمهای خودمختار است. هفته گذشت، مایکل کانان، مدیر عملیات شتابدهنده هوش مصنوعی نیروی هوایی در دانشگاه MIT در کنفرانسی با موضوع هوش مصنوعی، با بیان اینکه شیوه تفکر رو به تحول است، گفت: در حالی که انسان تصمیمات سطح بالا را میگیرد، باید وظایفی مانند شناسایی و تشخیص اهداف احتمالی را به هوش مصنوعی سپرد.
در همین رویداد، سپهبد کلینتون هاینوت (Clinton Hinote)، معاون رییس ستاد استراتژی، ادغام و الزامات پنتاگون گفت: حذف انسان از چرخه سیستمهای خودمختار مهلک، از جمله مباحث جدی در آینده است و هنوز در این زمینه تصمیمی اتخاد نشده است.
در ماه مه گذشته، کمیسیون امنیت ملی در زمینه هوش مصنوعی (NSCAI) که گروهی مشاورهای تشکیل داده شده از سوی کنگره است، در گزارشی پیشنهاد کرد که آمریکا باید دربرابر درخواستهای بینالمللی برای ممنوعیت توسعه سلاحهای خودمختار مقاومت کند.
تیموتی چانگ، مدیر برنامه پروژه هوش ازدحامی در دارپا، گفت که آزمایشهای تابستان گذشته، به منظور بررسی این مورد طراحی شده بود که چه زمانی یک اپراتور پهپاد باید برای سیستمهای خودمختار تصمیم بگیرد و چه زمانی این مسوولیت باید به خود سیستم واگذار شود. برای مثال، وقتی از چند جبهه با حمله مواجه میشویم، ممکن است کنترل انسانی ایجاد مزاحمت کند؛ زیرا انسان قادر به واکنش با سرعت کافی نیست.
چانگ افزود: در واقع سیستمهای خودمختار بدون دخالت انسان، میتوانند بهتر عمل کنند.
در آزمایشهای مذکور، به پهپادها و روباتهای چرخدار که هر کدام در ابعاد یک کوله پشتی بودند، اهدافی کلی داده شد و سپس، الگوریتمهای هوش مصنوعی برای تدوین برنامهای به منظور دستیابی به این اهداف وارد عمل شند. برخی از این روباتها، ساختمانها را محاصره کردندو تعداد دیگری نیز مشغول انجام گشت و نگهبانی شدند. تعدادی از روباتها با مواد منفجره شبیهسازی شده تخریب شده و تعدادی نیز توانستند دشمن را (که در این عملیات از امواج رادیویی به جای آن استفاده شده بود) شناسایی کنند و تصمیم به حمله بگیرند.
البته استفاده از سلاحهای خودمختار چیز تازهای نیست و آمریکا و تعدادی از کشورها، دهههاست که از آنها استفاده میکنند. برای مثال، برخی از انواع موشک، قادرند که به صورت خودمختار، دشمن را دریک محدوده مشخص شده، شناسایی و به آن حمله کنند. اما پیشرفتهای سریع در الگوریتمهای هوش مصنوعی، شیوه استفاده نظامی از چنین سیستمهایی را تغییر خواهد داد. کدهای آماده هوش مصنوعی که اغلب با درجه اطمینان بالا، قادر به کنترل روباتها، شناسایی اهداف و نشانهها هستند، پیادهسازی سیستمهای بیشتر در طیف وسیعتری از شرایط را ممکن کردهاند.
اما با وجود اینکه پهپادها، استفاده گسترده از هوش مصنوعی را به نمایش میگذارند، گاه نگهداشتن عامل انسانی در چرخه عملیات دشوار میشود و این مساله میتواند مشکل آفرین باشد؛ زیرا فناوری هوش مصنوعی ممکن است دارای سوگیری باشد یا غیرقابل پیشبینی عمل بکند. برای مثال یک الگوریتم بینایی ماشین که به منظور بازشناسی یک نوع یونیفورم خاص آموزش دیده باشد، ممکن است به اشتباه، فردی را با لباس مشابه هدف قرار دهد.
به گفته چانگ، در پروژه هوش ازدحامی، مبنا بر این است که الگوریتمهای هوش مصنوعی تا جایی بهینه شوند که بتوانند دشمن را با قابلیت اطمینان بالا، تا حدی که قابل اعتماد هم باشد، شناسایی کنند.
اما استفاده از هوش مصنوعی در سیستمهای جنگی و اسلحه، در سالهای اخیر محل مناقشه بوده است. در سال 2018، کارکنان گوگل به دلیل اینکه این شرکت، فناوری هوش مصنوعی را از طریق پروژه میون (Maven) در اختیار نیروی هوایی ایالات متحده گذاشته بود، دست به تظاهرات زدند.
پل شار (Paul Scharre) کارشناس منیت و نویسنده کتاب «ارتش صفر نفره: سلاحهای خودمختار و آینده جنگ» میگوید: زمان آن فرا رسیده که بحثهای پردامنهتری درباره فناوری سلاحهای خودمختار شکل بگیرد.
وی میافزاید: بحثها درباره حضور انسان در چرخه عملیات نظامی، پیچیدهتر از دیدگاههای صفر و یکی و آری یا نه است. اگر انسان تصمیم بگیرد که به مقابله با انبوه پهپادهای دشمن بپردازد، آیا همان انسان باید تک تک اهداف را انتخاب کند؟
در نوامبر سال 2012، وزارت دفاع آمریکا، سیاستهای استفاده از سلاحهای خودمختار را منتشر کرد که بر اساس آن، این سلاحها باید تحت نظارت انسان مورد استفاده قرار بگیرند؛ ولی این بدان معنا نیست که سربازان، تمامی تصمیمات را خواهند گرفت.
مکس تگمارک (Max Tegmark) استاد دانشگاه MIT و همبنیانگذار موسسه آینده زندگی (Future of Life Institute)، موسسهای غیر انتفاعی که مخالف استفاده از سلاحهای خودمختار است، میگوید: سلاحهای خودمختار کشنده، که آنقدر ارزانند که هر تروریستی میتواند آنها را تهیه کند، مورد توجه امنیت ملی آمریکا نیستند.
وی معتقد است که سلاحهای هوش مصنوعی را باید مانند سلاحهای بیولوژیکی ممنوع کرد.
تگمارک با بیان اینکه گزارش NSCAI مبنی بر مخالفت با ممنوعیت جهانی این سلاحها یک خطای استراتژیک است، میافزاید: به گمان من، روزی از این کار پشیمان میشویم؛ همانگونه که بابت مسلح کردن طالبان پشیمان شدهایم.