فرید میگوید: «این که در دنیای فیزیکی، وقتی محصولاتی را عرضه میکنیم، دستورالعملهای واقعاً سختگیرانهای وجود دارد، من را به طور مداوم شگفتزده میکند. شما نمی تو،د محصولی را منتشر کنید و امیدوار باشید که مشتری شما را نکشد. اما با نرمافزار، ما میگوییم: “این واقعاً کار نمیکند، اما بیایید ببینیم وقتی آن را برای میلیاردها نفر منتشر میکنیم چه اتفاقی میافتد.”
اگر در طول انتخابات شاهد انتشار تعداد قابل توجهی از دیپ فیک باشیم، به راحتی می توان تصور کرد که شخصی مانند دونالد ترامپ این نوع محتوا را در رسانه های اجتماعی به اشتراک می گذارد و ادعا می کند که واقعی است. یک دروغ عمیق از رئیس جمهور بایدن که می گوید چیزی رد صلاحیت کننده ممکن است کمی قبل از انتخابات منتشر شود و بسیاری از مردم ممکن است هرگز متوجه نشوند که این موضوع توسط هوش مصنوعی تولید شده است. تحقیقات به طور مداوم نشان داده شدهبه هر حال، آن اخبار جعلی فراتر از اخبار واقعی منتشر می شود.
حتی اگر پیش از انتخابات 2024 که هنوز 18 ماه باقی مانده است، دیپ فیک ها در همه جا حاضر نشوند، صرف این واقعیت که می توان این نوع محتوا را ایجاد کرد می تواند بر انتخابات تأثیر بگذارد. دانستن اینکه تصاویر، صدا و ویدئوهای تقلبی را می توان نسبتاً آسان ایجاد کرد، می تواند باعث شود مردم به مطالب قانونی که با آنها برخورد می کنند بی اعتماد شوند.
آژدر میگوید: «از برخی جهات، دیپفیکها و هوش مصنوعی مولد حتی نیازی به دخالت در انتخابات ندارند تا همچنان باعث اختلال شوند، زیرا اکنون چاه با این ایده مسموم شده است که هر چیزی ممکن است جعلی باشد. “اگر چیزی ناخوشایند از شما بیرون بیاید، این یک بهانه واقعا مفید است. شما می تو،د آن را به ،وان جعلی رد کنید.»
پس برای این مشکل چه می توان کرد؟ یک راه حل چیزی به نام است C2PA. این فناوری به صورت رمزنگاری هر محتوایی را که توسط یک دستگاه ایجاد میشود، مانند تلفن یا دوربین فیلمبرداری، و اسنادی که ع، را گرفتهاند، کجا و چه زم، ثبت کرده است، امضا میکند. سپس امضای رمزنگاری در یک دفتر کل غیرقابل تغییر متمرکز نگهداری می شود. این به افرادی که ویدیوهای قانونی تولید می کنند اجازه می دهد تا نشان دهند که در واقع قانونی هستند.
برخی از گزینه های دیگر شامل مواردی هستند که به آن اثر انگشت و واترمارک ، تصاویر و ویدئوها می گویند. اثرانگشت شامل برداشتن آنچه «هش» نامیده میشود از محتوا است، که اساساً فقط رشتههایی از دادههای آن هستند، بنابراین میتوان بعداً مشروع بودن آن را تأیید کرد. همانطور که ممکن است انتظار داشته باشید واترمارک شامل درج یک واترمارک دیجیتال روی تصاویر و ویدئوها است.
اغلب پیشنهاد شده است که ابزارهای هوش مصنوعی را می توان برای شناسایی دیپ فیک ها توسعه داد، اما Ajder با این راه حل فروخته نمی شود. او میگوید این فناوری به اندازه کافی قابل اعتماد نیست و نمیتواند با ابزارهای مولد هوش مصنوعی که دائماً در حال تغییر هستند که در حال توسعه هستند، همگام شود.
آ،ین امکان برای حل این مشکل ایجاد نوعی حقیقتسنجی فوری برای کاربران رسانههای اجتماعی است. Aviv Ovadya، محقق مرکز اینترنت و جامعه برکمن کلاین در هاروارد، میگوید که میتو،د محتوایی را در یک برنامه برجسته کنید و آن را به یک موتور زمینهسازی ارسال کنید که صحت آن را به شما اطلاع دهد.
“سواد رسانه ای که با سرعت پیشرفت در این فناوری تکامل می یابد، آسان نیست. اوادیا میگوید: شما نیاز دارید که تقریباً آنی باشد – جایی که به چیزی که آنلاین میبینید نگاه میکنید و میتو،د زمینه آن چیز را دریافت کنید. “چیست که به آن نگاه می کنی؟ شما می تو،د آن را با منابعی که می تو،د به آنها اعتماد کنید ارجاع دهید.»
اگر چیزی می بینید که ممکن است اخبار جعلی باشد، این ابزار می تواند به سرعت شما را از صحت آن مطلع کند. اگر تصویر یا ویدیویی را میبینید که به نظر میرسد جعلی است، میتواند منابع را بررسی کند تا ببیند آیا تأیید شده است یا خیر. اوادیا میگوید که میتواند در برنامههایی مانند واتساپ و توییتر در دسترس باشد یا به سادگی اپلیکیشن خودش باشد. او میگوید مشکل این است که بسیاری از بنیانگذار، که او با آنها صحبت کرده است، صرفاً پول زیادی برای توسعه چنین ابزاری نمیبینند.
اینکه آیا هر یک از این راه حل های احتمالی قبل از انتخابات 2024 اتخاذ خواهد شد یا نه، باید دید، اما تهدید در حال افزایش است، و پول زیادی برای توسعه هوش مصنوعی مولد و کمی برای یافتن راه هایی برای جلوگیری از گسترش این نوع اطلاعات نادرست صرف می شود. .
“من فکر می کنم که ما شاهد سیل ابزار خواهیم بود، همانطور که قبلاً می بینیم، اما فکر می کنم [AI-generated political content] آژدر می گوید ادامه خواهد داد. اساساً، ما در موقعیت خوبی برای مق، با این فناوریهای فوقالعاده سریع و قدرتمند نیستیم.»
منبع: https://www.wired.com/story/chatgpt-generative-ai-deepfake-2024-us-presidential-election/