هنر خاردار برچسب گذاری عمیق


هفته گذشته، کمیته ملی جمهوری خواهان الف تبلیغات تصویری در مقابل بایدن، که یک سلب مسئولیت کوچک در سمت چپ بالای قاب داشت: «کاملاً با تصاویر هوش مصنوعی ساخته شده است». منتقدان زیر سوال رفتند کاهش اندازه سلب مسئولیت و ارزش محدود آن را پیشنهاد می کند، به ویژه به این دلیل که این تبلیغ اولین استفاده اساسی از هوش مصنوعی در تبلیغات حملات سیاسی را نشان می دهد. همانطور که رسانه های تولید شده توسط هوش مصنوعی به جریان اصلی تبدیل می شوند، بسیاری استدلال کرده اند که بر،ب ها، زیرنویس ها و واترمارک های مبتنی بر متن برای شفافیت بسیار مهم هستند.

اما آیا این بر،ب ها واقعاً کار می کنند؟ شاید نه.

برای اینکه یک بر،ب کار کند، باید خوانا باشد. آیا متن به اندازه ای بزرگ است که بتوان آن را خواند؟ آیا کلمات قابل دسترسی هستند؟ همچنین باید زمینه م،اداری را در مورد نحوه ایجاد و استفاده از رسانه در اختیار مخاطبان قرار دهد. و در بهترین حالت، نیت را نیز فاش می کند: چرا این قطعه رسانه ای در جهان عرضه شده است؟

رو،مه‌نگاری، رسانه‌های مستند، صنعت و نشریات علمی مدت‌هاست که بر افشاگری‌ها تکیه می‌کنند تا زمینه لازم را برای مخاطبان و کاربران فراهم کنند. فیلم های رو،مه نگاری و مستند معمولاً از متن همپوش، برای ذکر منابع استفاده می کنند. بر،ب ها و بر،ب های هشدار دهنده در همه جا روی کالاهای تولیدی، غذاها و داروها وجود دارد. در گزارش‌های علمی، افشای چگونگی جمع‌آوری داده‌ها و تحلیل‌ها ضروری است. اما بر،ب زدن به رسانه های مصنوعی، محتوای تولید شده توسط هوش مصنوعی و دیپ فیک اغلب به ،وان یک بار ناخواسته دیده می شود، به ویژه در پلتفرم های رسانه های اجتماعی. این یک فکر بعدی است. یک تبعیت ،ل کننده در عصر اطلاعات نادرست.

به این ترتیب، بسیاری از شیوه‌های افشای رسانه‌های هوش مصنوعی، مانند واترمارک و بر،ب‌ها، به راحتی حذف می‌شوند. حتی وقتی آنها آنجا هستند، به نظر می رسد که چشمان مخاطبان – که اکنون بر روی ورودی بصری با آتش سریع آموزش دیده اند – دیدن واترمارک ها و افشاگری ها به ،وان مثال، در سپتامبر 2019، برنامه تلویزیونی طنز معروف ایتالیایی اخبار را حذف کنید ارسال شده a ویدیوی تعویض چهره با کیفیت پایین نخست وزیر سابق ماتئو رنتزی که پشت میز نشسته و با حرکات دست اغراق آمیز در رسانه های اجتماعی به شریک ائتلافی خود متئو سالوینی توهین می کند. با وجود الف نوار به گفته هنری آجر، محقق دیپ فیک، واترمارک و یک سلب مسئولیت مبتنی بر متن واضح، برخی از بینندگان بر این باور بودند که ویدیو واقعی است.

به این تغییر زمینه گفته می شود: هنگامی که هر قطعه ای از رسانه، حتی بر،ب گذاری و واترمارک گذاری شده، در میان گروه های رسانه های اجتماعی سیاسی شده و بسته توزیع می شود، سازندگان آن کنترل نحوه قاب بندی، تفسیر و به اشتراک گذاری آن را از دست می دهند. همانطور که در یک مفصل یافتیم مطالعه پژوهشی بین Witness و MIT، زم، که طنز با دیپ فیک مخلوط می شود، اغلب باعث سردرگمی می شود، مانند این مورد نوار ویدئو این نوع بر،ب های ساده مبتنی بر متن می توانند موارد اضافی را ایجاد کنند تصور غلط هر چیزی که بر،ب نداشته باشد دستکاری نمی شود، در حالی که در واقعیت ممکن است درست نباشد.

فن‌آوران در حال کار بر روی راه‌هایی برای ردیابی سریع و دقیق منشأ رسانه‌های مصنوعی، مانند منشأ رمزنگاری و فراداده‌های فایل دقیق هستند. وقتی صحبت از روش‌های جایگزین بر،ب‌گذاری به میان می‌آید، هنرمندان و فعالان حقوق بشر راه‌های نویدبخش جدیدی را برای شناسایی بهتر این نوع محتوا با چارچوب‌بندی مجدد بر،ب‌گذاری به‌،وان یک عمل خلاقانه و نه یک افزودنی ارائه می‌کنند.

وقتی افشاگری در خود رسانه ایجاد می‌شود، نمی‌توان آن را حذف کرد و در واقع می‌تواند به ،وان ابزاری برای سوق دادن مخاطبان به درک چگونگی و چرایی ایجاد یک قطعه رسانه مورد استفاده قرار گیرد. مثلا در مستند دیوید فرانس به چچن خوش آمدید، مصاحبه شوندگان آسیب پذیر با کمک مبتکر به صورت دیجیتالی مبدل شدند ابزارهای رسانه مصنوعی مانند مواردی که برای ایجاد دیپ فیک استفاده می شود. علاوه بر این، هاله‌های ظریفی در اطراف صورت آنها ظاهر می‌شد، که سرنخی برای بینندگان بود که تصاویری که تماشا می‌،د دستکاری شده‌اند و این افراد در به اشتراک‌گذاری داستان‌های خود ریسک زیادی می‌،د. و در موزیک ویدیوی کندریک لامار در سال 2022، “قلب ،مت 5کارگردانان از فناوری دیپ‌فیک برای تبدیل چهره لامار به چهره‌های مشهور مرده و زنده مانند ویل اسمیت، او جی سیم، و کوبی برایانت استفاده ،د. این استفاده از فناوری مستقیماً در متن آهنگ و رقص نوشته شده است، مانند زم، که لامار از دست خود برای کشیدن انگشت روی صورتش استفاده می کند، که به وضوح نشان دهنده یک ویرایش عمیق است. ویدیوی به دست آمده، یک متا تفسیر درباره خود دیپ فیک است.




منبع: https://www.wired.com/story/the-t،rny-art-of-deepfake-labeling/