پنج روز بعد روسیه تهاجم تمام عیار خود به اوکراین را آغاز کرد، یک سال پیش در این هفته، شرکت آمریکایی تشخیص چهره Clearview AI به ،ت اوکراین دسترسی رایگان به فناوری خود را پیشنهاد داد و پیشنهاد کرد که می توان از آن برای متحد ، خانواده ها، شناسایی عوامل روسی و مبارزه استفاده کرد. اطلاعات غلط بلافاصله پس از آن، ،ت اوکراین فاش کرد که از این فناوری برای اسکن چهره سربازان روسی کشته شده برای شناسایی اجساد و اطلاع خانواده هایشان استفاده می کند. تا دسامبر 2022، میخائیلو فدوروف، معاون نخست وزیر و وزیر تحول دیجیتال اوکراین، توییت ، تصویری از خود در کنار مدیر عامل Clearview AI، Hoan Ton-That، که از شرکت برای حمایتش تشکر می کند.
حسابرسی از جان باختگان و آگاه ساختن خانواده ها از سرنوشت بستگانشان الف ضروری حقوق بشر در معاهدات بین المللی، پروتکل ها و قو،نی مانند کنوانسیون های ژنو و کمیته بین المللی صلیب سرخ (ICRC) اصول راهنما برای مدیریت عزتمندانه اموات. همچنین به تعهدات بسیار عمیق تری گره خورده است. مراقبت از مردگان یکی از کهنترین اعمال بشری است که به اندازه زبان و ظرفیت خوداندیشی ما را انسان میسازد. توماس لاکور، مورخ، در مراقبه حماسی خود، کار مردگان، می نویسد که «تا زم، که مردم درباره این موضوع بحث کرده اند، مراقبت از مردگان به ،وان پایه و اساس تلقی می شده است – مذهب، سیاست، قبیله، قبیله، ظرفیت عزاداری، درک پایان پذیری. از زندگی، از خود تمدن.» اما شناسایی مردگان با استفاده از فناوری تشخیص چهره، از وزن اخلاقی این نوع مراقبت استفاده میکند تا فناوریای را مجاز کند که نگر،های جدی در مورد حقوق بشر ایجاد میکند.
در اوکراین، خونین ترین جنگ در اروپا از زمان جنگ جه، دوم، تشخیص چهره ممکن است ابزار دیگری باشد که برای شناسایی کشته شدگان، همراه با دیجیتالی ، سوابق سردخانه، آزمایشگاه های سیار DNA، و نبش قبرهای دسته جمعی.
اما آیا کار می کند؟ تن-این می گوید فناوری شرکتش “بدون توجه به آسیب های صورت که ممکن است برای یک فرد متوفی رخ داده باشد، به طور موثر عمل می کند.” تحقیقات کمی برای حمایت از این ادعا وجود دارد، اما نویسندگان یک مطالعه کوچک نتایج “امیدبخش” حتی برای چهرههایی که در حالت تجزیه هستند یافت شد. با این حال، لوئیس فاندبریدر، انسان شناس پزشکی قانونی، رئیس سابق خدمات پزشکی قانونی کمیته بین المللی صلیب سرخ، که در مناطق درگیری در سراسر جهان کار کرده است، این ادعاها را مورد تردید قرار می دهد. او می گوید: «این فناوری فاقد اعتبار علمی است. “این کاملاً توسط جامعه پزشکی قانونی پذیرفته نشده است.” (شناسایی DNA استاندارد طلایی باقی می ماند.) رشته پزشکی قانونی “تکنولوژی و اهمیت پیشرفت های جدید را درک می کند” اما عجله برای استفاده از تشخیص چهره “،یبی از سیاست و تجارت با علم بسیار اندک” از نظر فاندبریدر است. او می گوید: «هیچ راه حل جادویی برای شناسایی وجود ندارد.
استفاده از یک فناوری اثبات نشده برای شناسایی سربازان کشته شده می تواند منجر به اشتباهات و آسیب دیدن خانواده ها شود. اما حتی اگر استفاده پزشکی قانونی از فناوری تشخیص چهره با شواهد علمی تأیید شده باشد، نباید از آن برای نام بردن از کشته شدگان استفاده شود. برای زنده ها خیلی خطرناک است.
سازمان ها از جمله عفو بین الملل، بنیاد مرز الکترونیکی، پروژه نظارت بر فناوری نظارت و پروژه دفاع از مهاجران، فناوری تشخیص چهره را نوعی نظارت جمعی اعلام کرده اند که تهدید می کند. حریم خصوصی، تقویت می کند پلیس نژادپرستانه، تهدید می کند حق اعتراض، و می تواند منجر شود دستگیری غیرقانونی. دامین ساتیجا، رئیس آزمایشگاه پاسخگویی الگوریتمی عفو بینالملل و معاون مدیر بخش فنی، می گوید که فناوری تشخیص چهره با «بازتولید تبعیض ساختاری در مقیاس و خودکارسازی و تثبیت نابرابری های اجتماعی موجود» حقوق بشر را تضعیف می کند. در روسیه، صورت به رسمیت شناختن فن آوری برای سرکوب مخالفان سیاسی استفاده می شود. آی تی از نظر قانونی مطابقت ندارد و استانداردهای اخلاقی هنگامی که در اجرای قانون در بریت،ا و ایالات متحده استفاده می شود، و است مسلح شده در برابر به حاشیه رانده شده است جوامع دور و بر را جهان.
دید واضح هوش مصنوعی، که در درجه اول کالاهای خود را به پلیس می فروشد، یکی از بزرگترین پایگاه داده های شناخته شده ع، های صورت را با 20 میلیارد ع، دارد و قصد دارد 100 میلیارد ع، دیگر را جمع آوری کند – معادل 14 ع، برای هر فرد روی کره زمین. شرکت دارد وعده داده است سرمایه گذار، که به زودی «تقریباً همه در جهان قابل شناسایی خواهند بود». تنظیم کننده ها در ایتالیا، استرالیا، بریت،ا و فرانسه پایگاه داده Clearview را غیرقانونی اعلام کرده و به شرکت دستور داده اند ع، های شهروندان خود را حذف کند. در اتحادیه اروپا، صورت خود را بازیابی کنیدائتلافی متشکل از بیش از 40 سازمان جامعه مدنی، خواستار ممنوعیت کامل فناوری تشخیص چهره شده است.
محقق اخلاق هوش مصنوعی استف، هار اوکراین میگوید که «از ابزاری استفاده میکند و یک شرکت و مدیرعامل را تبلیغ میکند که نه تنها غیراخلاقی بلکه غیرقانونی رفتار کردهاند». او حدس میزند که «هدف وسیله را توجیه میکند»، اما میپرسد، «چرا اینقدر مهم است که اوکراین بتواند سربازان روسی مرده را با استفاده از Clearview AI شناسایی کند؟ این چگونه برای دفاع از اوکراین یا پیروزی در جنگ ضروری است؟»
منبع: https://www.wired.com/story/russia-ukraine-،-recognition-technology-death-military/