پنجشنبه گذشته، و، امور خارجه ایالات متحده چشم انداز جدیدی را برای توسعه، آزمایش و تأیید سیستم های نظامی – از جمله تسلیحات – که از هوش مصنوعی استفاده می کنند، ترسیم کرد.
این اعلامیه سیاسی استفاده نظامی مسئولانه از هوش مصنوعی و خودمختاری نشان دهنده تلاش ایالات متحده برای هدایت توسعه هوش مصنوعی نظامی در یک زمان حیاتی برای این فناوری است. این سند به طور قانونی ارتش ایالات متحده را م،م نمی کند، اما امید این است که کشورهای متحد با اصول آن موافقت کنند و نوعی استاندارد جه، برای ساخت سیستم های هوش مصنوعی مسئولانه ایجاد کنند.
از جمله در این بی،ه آمده است که هوش مصنوعی نظامی باید بر اساس قو،ن بینالمللی توسعه یابد، کشورها باید در مورد اصول زیربنای فناوری خود شفاف باشند و استانداردهای بالایی برای تأیید عملکرد سیستمهای هوش مصنوعی اجرا شده است. همچنین می گوید که انسان ها به تنهایی باید در مورد استفاده از سلاح های هسته ای تصمیم بگیرند.
وقتی صحبت از سیستمهای تسلیحاتی خودمختار به میان میآید، رهبران ارتش ایالات متحده اغلب اطمینان دادهاند که یک انسان برای تصمیمگیری درباره استفاده از نیروی مرگبار «در حلقه» باقی خواهد ماند. اما سیاست رسمی، اولین بار توسط و، دفاع آمریکا در سال 2012 صادر شد و امسال به روز شد. ا،امی نیست این مورد باشد
تلاش ها برای ایجاد ممنوعیت بین المللی در مورد سلاح های خودمختار تاکنون بی نتیجه مانده است. را صلیب سرخ بین المللی و گروه های کمپین مانند ربات های قاتل را متوقف کنید برای توافق در سازمان ملل متحد فشار آوردهاند، اما برخی از قدرتهای بزرگ – ایالات متحده، روسیه، اسرائیل، کره ج،ی و استرالیا – نشان دادهاند که تمایلی به تعهد ندارند.
یکی از دلایل این است که بسیاری در پنتاگون افزایش استفاده از هوش مصنوعی را در ارتش، از جمله در خارج از سیستمهای غیر تسلیحاتی، حیاتی و اجتنابناپذیر میدانند. آنها استدلال می کنند که ممنوعیت پیشرفت ایالات متحده را کند می کند و فناوری آن را نسبت به دشمن، مانند چین و روسیه دچار مشکل می کند. جنگ در اوکراین نشان داده است که چگونه به سرعت خودمختاری در قالب پهپادهای یکبار مصرف ارزان قیمت، که به لطف الگوریتمهای یادگیری ماشینی که به درک و عمل به آنها کمک میکند، توانمندتر میشوند، میتواند به ایجاد مزیت در درگیری کمک کند.
اوایل این ماه، درباره ماموریت شخصی اریک اشمیت، مدیر عامل گوگل، برای تقویت هوش مصنوعی پنتاگون برای اطمینان از عقب نماندن آمریکا از چین نوشتم. این فقط یک داستان بود که از ماهها گزارشدهی در مورد تلاشها برای به کارگیری هوش مصنوعی در سیستمهای نظامی حیاتی و اینکه چگونه این موضوع در استراتژی نظامی ایالات متحده نقش محوری پیدا میکند – حتی اگر بسیاری از فناوریهای درگیر در هر بحر، نوپا و آزمایش نشده باقی بمانند.
لورن کان، محقق در شورای روابط خارجی، از بی،ه جدید ایالات متحده به ،وان یک بلوک ساختم، بالقوه برای استفاده مسئولانه تر از هوش مصنوعی نظامی در سراسر جهان استقبال کرد.
محتوای توییتر
این مطالب را می توان در سایت آن نیز مشاهده کرد سرچشمه می گیرد از جانب.
چند کشور در حال حاضر تسلیحاتی دارند که بدون کنترل مستقیم انسان در شرایط محدود عمل می کنند، مانند دفاع موشکی که برای موثر بودن باید با سرعت فوق بشری پاسخ دهد. استفاده بیشتر از هوش مصنوعی ممکن است به م،ای سناریوهای بیشتری باشد که در آن سیستمها به طور مستقل عمل میکنند، به ،وان مثال زم، که پهپادها خارج از محدوده ارتباطی کار میکنند یا در گروههایی بسیار پیچیده برای مدیریت هر انس،.
برخی اعلامیه ها در مورد نیاز به هوش مصنوعی در سلاح ها، به ویژه از سوی شرکت های توسعه دهنده این فناوری، هنوز کمی دور از ذهن به نظر می رسند. وجود داشته است گزارش هایی مبنی بر استفاده از سلاح های کاملاً خودمختار در درگیری های اخیر و از کمک هوش مصنوعی به حملات نظامی هدفمند، اما اینها تأیید نشده اند، و در حقیقت بسیاری از سربازان ممکن است نسبت به سیستم هایی که بر الگوریتم هایی متکی هستند که به دور از خطا نیستند، محتاط باشند.
و با این حال، اگر نتوان تسلیحات خودمختار را ممنوع کرد، توسعه آنها ادامه خواهد یافت. این امر حیاتی میکند تا اطمینان حاصل شود که هوش مصنوعی درگیر طبق انتظار عمل میکند – حتی اگر مهندسی مورد نیاز برای اجرای کامل مقاصدی مانند آنچه در بی،ه جدید ایالات متحده است هنوز تکمیل نشده باشد.
منبع: https://www.wired.com/story/fast-forward-s،uld-algorithms-control-nuclear-launch-codes-the-us-says-no/