در اوکراین، شناسایی مردگان هزینه حقوق بشر دارد


پنج روز بعد روسیه تهاجم تمام عیار خود به اوکراین را آغاز کرد، یک سال پیش در این هفته، شرکت آمریکایی تشخیص چهره Clearview AI به ،ت اوکراین دسترسی رایگان به فناوری خود را پیشنهاد داد و پیشنهاد کرد که می توان از آن برای متحد ، خانواده ها، شناسایی عوامل روسی و مبارزه استفاده کرد. اطلاعات غلط بلافاصله پس از آن، ،ت اوکراین فاش کرد که از این فناوری برای اسکن چهره سربازان روسی کشته شده برای شناسایی اجساد و اطلاع خانواده هایشان استفاده می کند. تا دسامبر 2022، میخائیلو فدوروف، معاون نخست وزیر و وزیر تحول دیجیتال اوکراین، توییت ، تصویری از خود در کنار مدیر عامل Clearview AI، Hoan Ton-That، که از شرکت برای حمایتش تشکر می کند.

حسابرسی از جان باختگان و آگاه ساختن خانواده ها از سرنوشت بستگانشان الف ضروری حقوق بشر در معاهدات بین المللی، پروتکل ها و قو،نی مانند کنوانسیون های ژنو و کمیته بین المللی صلیب سرخ (ICRC) اصول راهنما برای مدیریت عزتمندانه اموات. همچنین به تعهدات بسیار عمیق تری گره خورده است. مراقبت از مردگان یکی از کهن‌ترین اعمال بشری است که به اندازه زبان و ظرفیت خوداندیشی ما را انسان می‌سازد. توماس لاکور، مورخ، در مراقبه حماسی خود، کار مردگان، می نویسد که «تا زم، که مردم درباره این موضوع بحث کرده اند، مراقبت از مردگان به ،وان پایه و اساس تلقی می شده است – مذهب، سیاست، قبیله، قبیله، ظرفیت عزاداری، درک پایان پذیری. از زندگی، از خود تمدن.» اما شناسایی مردگان با استفاده از فناوری تشخیص چهره، از وزن اخلاقی این نوع مراقبت استفاده می‌کند تا فناوری‌ای را مجاز کند که نگر،‌های جدی در مورد حقوق بشر ایجاد می‌کند.

در اوکراین، خونین ترین جنگ در اروپا از زمان جنگ جه، دوم، تشخیص چهره ممکن است ابزار دیگری باشد که برای شناسایی کشته شدگان، همراه با دیجیتالی ، سوابق سردخانه، آزمایشگاه های سیار DNA، و نبش قبرهای دسته جمعی.

اما آیا کار می کند؟ تن-این می گوید فناوری شرکتش “بدون توجه به آسیب های صورت که ممکن است برای یک فرد متوفی رخ داده باشد، به طور موثر عمل می کند.” تحقیقات کمی برای حمایت از این ادعا وجود دارد، اما نویسندگان یک مطالعه کوچک نتایج “امیدبخش” حتی برای چهره‌هایی که در حالت تجزیه هستند یافت شد. با این حال، لوئیس فاندبریدر، انسان شناس پزشکی قانونی، رئیس سابق خدمات پزشکی قانونی کمیته بین المللی صلیب سرخ، که در مناطق درگیری در سراسر جهان کار کرده است، این ادعاها را مورد تردید قرار می دهد. او می گوید: «این فناوری فاقد اعتبار علمی است. “این کاملاً توسط جامعه پزشکی قانونی پذیرفته نشده است.” (شناسایی DNA استاندارد طلایی باقی می ماند.) رشته پزشکی قانونی “تکنولوژی و اهمیت پیشرفت های جدید را درک می کند” اما عجله برای استفاده از تشخیص چهره “،یبی از سیاست و تجارت با علم بسیار اندک” از نظر فاندبریدر است. او می گوید: «هیچ راه حل جادویی برای شناسایی وجود ندارد.

استفاده از یک فناوری اثبات نشده برای شناسایی سربازان کشته شده می تواند منجر به اشتباهات و آسیب دیدن خانواده ها شود. اما حتی اگر استفاده پزشکی قانونی از فناوری تشخیص چهره با شواهد علمی تأیید شده باشد، نباید از آن برای نام بردن از کشته شدگان استفاده شود. برای زنده ها خیلی خطرناک است.

سازمان ها از جمله عفو بین الملل، بنیاد مرز الکترونیکی، پروژه نظارت بر فناوری نظارت و پروژه دفاع از مهاجران، فناوری تشخیص چهره را نوعی نظارت جمعی اعلام کرده اند که تهدید می کند. حریم خصوصی، تقویت می کند پلیس نژادپرستانه، تهدید می کند حق اعتراض، و می تواند منجر شود دستگیری غیرقانونی. دامین ساتیجا، رئیس آزمایشگاه پاسخگویی الگوریتمی عفو بین‌الملل و معاون مدیر بخش فنی، می گوید که فناوری تشخیص چهره با «بازتولید تبعیض ساختاری در مقیاس و خودکارسازی و تثبیت نابرابری های اجتماعی موجود» حقوق بشر را تضعیف می کند. در روسیه، صورت به رسمیت شناختن فن آوری برای سرکوب مخالفان سیاسی استفاده می شود. آی تی از نظر قانونی مطابقت ندارد و استانداردهای اخلاقی هنگامی که در اجرای قانون در بریت،ا و ایالات متحده استفاده می شود، و است مسلح شده در برابر به حاشیه رانده شده است جوامع دور و بر را جهان.

دید واضح هوش مصنوعی، که در درجه اول کالاهای خود را به پلیس می فروشد، یکی از بزرگترین پایگاه داده های شناخته شده ع، های صورت را با 20 میلیارد ع، دارد و قصد دارد 100 میلیارد ع، دیگر را جمع آوری کند – معادل 14 ع، برای هر فرد روی کره زمین. شرکت دارد وعده داده است سرمایه گذار، که به زودی «تقریباً همه در جهان قابل شناسایی خواهند بود». تنظیم کننده ها در ایتالیا، استرالیا، بریت،ا و فرانسه پایگاه داده Clearview را غیرقانونی اعلام کرده و به شرکت دستور داده اند ع، های شهروندان خود را حذف کند. در اتحادیه اروپا، صورت خود را بازیابی کنیدائتلافی متشکل از بیش از 40 سازمان جامعه مدنی، خواستار ممنوعیت کامل فناوری تشخیص چهره شده است.

محقق اخلاق هوش مصنوعی استف، هار اوکراین می‌گوید که «از ابزاری استفاده می‌کند و یک شرکت و مدیرعامل را تبلیغ می‌کند که نه تنها غیراخلاقی بلکه غیرقانونی رفتار کرده‌اند». او حدس می‌زند که «هدف وسیله را توجیه می‌کند»، اما می‌پرسد، «چرا اینقدر مهم است که اوکراین بتواند سربازان روسی مرده را با استفاده از Clearview AI شناسایی کند؟ این چگونه برای دفاع از اوکراین یا پیروزی در جنگ ضروری است؟»




منبع: https://www.wired.com/story/russia-ukraine-،-recognition-technology-death-military/