آیا الگوریتم‌ها باید کدهای پرتاب سلاح‌های هسته‌ای را کنترل کنند؟ ایالات متحده می گوید نه


پنجشنبه گذشته، و، امور خارجه ایالات متحده چشم انداز جدیدی را برای توسعه، آزمایش و تأیید سیستم های نظامی – از جمله تسلیحات – که از هوش مصنوعی استفاده می کنند، ترسیم کرد.

این اعلامیه سیاسی استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری نشان دهنده تلاش ایالات متحده برای هدایت توسعه هوش مصنوعی نظامی در یک زمان حیاتی برای این فناوری است. این سند به طور قانونی ارتش ایالات متحده را م،م نمی کند، اما امید این است که کشورهای متحد با اصول آن موافقت کنند و نوعی استاندارد جه، برای ساخت سیستم های هوش مصنوعی مسئولانه ایجاد کنند.

از جمله در این بی،ه آمده است که هوش مصنوعی نظامی باید بر اساس قو،ن بین‌المللی توسعه یابد، کشورها باید در مورد اصول زیربنای فناوری خود شفاف باشند و استانداردهای بالایی برای تأیید عملکرد سیستم‌های هوش مصنوعی اجرا شده است. همچنین می گوید که انسان ها به تنهایی باید در مورد استفاده از سلاح های هسته ای تصمیم بگیرند.

وقتی صحبت از سیستم‌های تسلیحاتی خودمختار به میان می‌آید، رهبران ارتش ایالات متحده اغلب اطمینان داده‌اند که یک انسان برای تصمیم‌گیری درباره استفاده از نیروی مرگبار «در حلقه» باقی خواهد ماند. اما سیاست رسمی، اولین بار توسط و، دفاع آمریکا در سال 2012 صادر شد و امسال به روز شد. ا،امی نیست این مورد باشد

تلاش ها برای ایجاد ممنوعیت بین المللی در مورد سلاح های خودمختار تاکنون بی نتیجه مانده است. را صلیب سرخ بین المللی و گروه های کمپین مانند ربات های قاتل را متوقف کنید برای توافق در سازمان ملل متحد فشار آورده‌اند، اما برخی از قدرت‌های بزرگ – ایالات متحده، روسیه، اسرائیل، کره ج،ی و استرالیا – نشان داده‌اند که تمایلی به تعهد ندارند.

یکی از دلایل این است که بسیاری در پنتاگون افزایش استفاده از هوش مصنوعی را در ارتش، از جمله در خارج از سیستم‌های غیر تسلیحاتی، حیاتی و اجتناب‌ناپذیر می‌دانند. آنها استدلال می کنند که ممنوعیت پیشرفت ایالات متحده را کند می کند و فناوری آن را نسبت به دشمن، مانند چین و روسیه دچار مشکل می کند. جنگ در اوکراین نشان داده است که چگونه به سرعت خودمختاری در قالب پهپادهای یکبار مصرف ارزان قیمت، که به لطف الگوریتم‌های یادگیری ماشینی که به درک و عمل به آن‌ها کمک می‌کند، توانمندتر می‌شوند، می‌تواند به ایجاد مزیت در درگیری کمک کند.

اوایل این ماه، درباره ماموریت شخصی اریک اشمیت، مدیر عامل گوگل، برای تقویت هوش مصنوعی پنتاگون برای اطمینان از عقب نماندن آمریکا از چین نوشتم. این فقط یک داستان بود که از ماه‌ها گزارش‌دهی در مورد تلاش‌ها برای به کارگیری هوش مصنوعی در سیستم‌های نظامی حیاتی و اینکه چگونه این موضوع در استراتژی نظامی ایالات متحده نقش محوری پیدا می‌کند – حتی اگر بسیاری از فناوری‌های درگیر در هر بحر، نوپا و آزمایش نشده باقی بمانند.

لورن کان، محقق در شورای روابط خارجی، از بی،ه جدید ایالات متحده به ،وان یک بلوک ساختم، بالقوه برای استفاده مسئولانه تر از هوش مصنوعی نظامی در سراسر جهان استقبال کرد.

محتوای توییتر

این مطالب را می توان در سایت آن نیز مشاهده کرد سرچشمه می گیرد از جانب.

چند کشور در حال حاضر تسلیحاتی دارند که بدون کنترل مستقیم انسان در شرایط محدود عمل می کنند، مانند دفاع موشکی که برای موثر بودن باید با سرعت فوق بشری پاسخ دهد. استفاده بیشتر از هوش مصنوعی ممکن است به م،ای سناریوهای بیشتری باشد که در آن سیستم‌ها به طور مستقل عمل می‌کنند، به ،وان مثال زم، که پهپادها خارج از محدوده ارتباطی کار می‌کنند یا در گروه‌هایی بسیار پیچیده برای مدیریت هر انس،.

برخی اعلامیه ها در مورد نیاز به هوش مصنوعی در سلاح ها، به ویژه از سوی شرکت های توسعه دهنده این فناوری، هنوز کمی دور از ذهن به نظر می رسند. وجود داشته است گزارش هایی مبنی بر استفاده از سلاح های کاملاً خودمختار در درگیری های اخیر و از کمک هوش مصنوعی به حملات نظامی هدفمند، اما اینها تأیید نشده اند، و در حقیقت بسیاری از سربازان ممکن است نسبت به سیستم هایی که بر الگوریتم هایی متکی هستند که به دور از خطا نیستند، محتاط باشند.

و با این حال، اگر نتوان تسلیحات خودمختار را ممنوع کرد، توسعه آنها ادامه خواهد یافت. این امر حیاتی می‌کند تا اطمینان حاصل شود که هوش مصنوعی درگیر طبق انتظار عمل می‌کند – حتی اگر مهندسی مورد نیاز برای اجرای کامل مقاصدی مانند آنچه در بی،ه جدید ایالات متحده است هنوز تکمیل نشده باشد.




منبع: https://www.wired.com/story/fast-forward-s،uld-algorithms-control-nuclear-launch-codes-the-us-says-no/