تصاویر جعلی از افراد رنگین‌پوست تعصب هوش مصنوعی را برطرف نمی‌کند


مسلح به یک با اعتقاد به پتانسیل مولد فناوری، گروه رو به رشدی از محققان و شرکت ها قصد دارند با ایجاد تصاویر مصنوعی از افراد رنگین پوست، مشکل سوگیری در هوش مصنوعی را حل کنند. طرفداران استدلال می کنند که ژنراتورهای مبتنی بر هوش مصنوعی می توانند شکاف های تنوع موجود در پایگاه داده های تصاویر موجود را با تکمیل آنها با تصاویر مصنوعی اصلاح کنند. مقداری محققان از معماری‌های یادگیری ماشین برای ترسیم ع،‌های موجود از افراد در نژادهای جدید استفاده می‌کنند تا “توازن توزیع قومی” مجموعه داده‌ها را ایجاد کنند. دیگران، مانند رسانه تولید شده و آزمایشگاه قووس، از فناوری‌های مشابه برای ایجاد پرتره‌های کاملاً جدید برای بانک‌های تصویر خود استفاده می‌کنند، همانطور که آزمایشگاه Qoves می‌گوید، «ساختن چهره‌های هر نژاد و قومیتی» برای اطمینان از «داده‌های چهره واقعاً منصفانه». همانطور که آنها می بینند، این ابزارها با تولید ارزان و کارآمد تصاویر متنوع بر اساس دستور، سوگیری های داده را حل می کنند.

مسئله ای که این فناوران به دنبال رفع آن هستند، موضوعی حیاتی است. هوش مصنوعی مملو از نقص است و قفل تلفن ها را باز می کند شخص اشتباه چون نمی توانند چهره های آسیایی را از هم تشخیص دهند، متهم ، به دروغ افرادی از جنایاتی که مرتکب نشده‌اند، و افراد تیره‌پوست را اشتباه گرفته‌اند برای گوریل ها. این ،ابی‌های دیدنی ناهنجاری نیستند، بلکه پیامدهای اجتناب‌ناپذیر هوش مصنوعی داده‌هایی هستند که در بیشتر موارد به شدت سفید و مرد را منحرف می‌کنند – و این ابزارها را برای هر،ی که با این کهن الگوی باریک سازگاری ندارد، ابزاری غیردقیق می‌کند. در تئوری، راه حل ساده است: ما فقط باید مجموعه های آموزشی متنوع تری را پرورش دهیم. با این حال، در عمل، به دلیل مقیاس ورودی‌هایی که چنین سیستم‌هایی نیاز دارند، و همچنین میزان حذفیات فعلی در داده‌ها، ثابت شده است که این یک کار فوق‌العاده کار فشرده است (برای مثال، تحقیقات IBM نشان داد که شش از هشت مجموعه داده های برجسته صورت از بیش از 80 درصد چهره هایی با پوست روشن تر تشکیل شده است. بنابراین، این امکان وجود دارد که مجموعه داده های متنوعی بدون منبع یابی دستی ایجاد شوند.

با این حال، همانطور که به روش‌هایی که این پیشنهاد ممکن است بر ابزارها و روابط ما با آنها تأثیر بگذارد، نگاه می‌کنیم، سایه‌های طول، این راه‌حل به ظاهر راحت شروع به شکل‌گیری ترسناک می‌کنند.

بینایی کامپیوتری دارد از اواسط قرن بیستم به نوعی در حال توسعه بوده است. در ابتدا، محققان تلاش ،د تا ابزارهایی را از بالا به پایین بسازند و به صورت دستی قو،نی را تعریف کنند (“چهره های انسان دو چشم متقارن دارند”) تا طبقه مورد نظر از تصاویر را شناسایی کنند. این قو،ن به یک فرمول مح،اتی تبدیل می‌شوند، سپس به یک کامپیوتر برنامه‌ریزی می‌شوند تا به آن کمک کند ال،ای پی،لی را که مطابق با ال،ای شی توصیف‌شده است، جستجو کند. این رویکرد اما ثابت کرد تا حد زیادی ناموفق با توجه به تنوع بسیار زیاد سوژه ها، زاویه ها و شرایط نوری که می توانند یک ع، را تشکیل دهند – و همچنین دشواری ترجمه حتی قو،ن ساده به فرمول های منسجم.

با گذشت زمان، افزایش تصاویر در دسترس عموم، فرآیند پایین به بالا را از طریق یادگیری ماشینی ممکن کرد. با این روش، انبوهی از داده های بر،ب گذاری شده به یک سیستم وارد می شود. از طریق “یادگیری تحت نظارتالگوریتم این داده ها را می گیرد و به خود می آموزد که بین دسته بندی های مورد نظر تعیین شده توسط محققان تمایز قائل شود. این تکنیک بسیار انعطاف‌پذیرتر از روش بالا به پایین است زیرا بر قو،نی که ممکن است در شرایط مختلف متفاوت باشند متکی نیست. با آموزش خود بر روی انواع ورودی‌ها، ماشین می‌تواند شباهت‌های مربوطه بین تصاویر یک ک، مشخص را بدون اینکه صریحاً به آن شباهت‌ها گفته شود شناسایی کند و مدلی بسیار سازگارتر ایجاد کند.

با این حال، روش پایین به بالا کامل نیست. به طور خاص، این سیستم ها تا حد زیادی توسط داده هایی که ارائه می کنند محدود می شوند. به ،وان نویسنده فناوری راب هورنینگ آن را قرار می دهد، فناوری هایی از این نوع “یک سیستم بسته را فرض می کنند.” آنها در برون یابی فراتر از پارامترهای داده شده خود مشکل دارند که منجر به عملکرد محدود وقتی با موضوعاتی مواجه می شوند که در مورد آنها به خوبی آموزش ندیده اند. به ،وان مثال، اختلاف در داده ها منجر شد FaceDetect مایکروسافت نرخ خطای ۲۰ درصدی برای ،ن با پوست تیره‌تر، در حالی که نرخ خطای آن برای مردان سفیدپوست حدود ۰ درصد است. اثرات موجی این سوگیری های آموزشی بر عملکرد دلیلی است که متخصصان اخلاق فناوری شروع به تبلیغ اهمیت تنوع مجموعه داده ها ،د و چرا شرکت ها و محققان در حال رقابت برای حل این مشکل هستند. همانطور که ضرب المثل رایج در هوش مصنوعی می گوید: “، داخل، ، بیرون”.

این اصل به همان اندازه برای تولیدکننده‌های تصویر صدق می‌کند، که همچنین به مجموعه داده‌های بزرگی نیاز دارند تا خود را در هنر نمایش فوتورئالیستی آموزش دهند. ا،ر ژنراتورهای صورت امروزه استفاده می کنند شبکه های متخاصم مولد (یا GAN ها) به ،وان معماری پایه آنها. در هسته خود، GAN ها با داشتن دو شبکه، یک Generator و یک Discriminator، در بازی با یکدیگر کار می کنند. در حالی که Generator تصاویر را از ورودی های نویز تولید می کند، یک Discriminator تلاش می کند تا تقلبی های تولید شده را از تصاویر واقعی ارائه شده توسط یک مجموعه آموزشی مرتب کند. با گذشت زمان، این “شبکه متخاصم” ژنراتور را قادر می‌سازد تا تصاویری را بهبود بخشد و ایجاد کند که یک Discriminator قادر به شناسایی آنها به ،وان جعلی نیست. ورودی های اولیه به ،وان لنگر برای این فرآیند عمل می کنند. تاریخی، دهها هزار از این تصاویر برای تولید نتایج به اندازه کافی واقعی مورد نیاز بوده است که نشان دهنده اهمیت مجموعه آموزشی متنوع در توسعه من، این ابزارها است.


منبع: https://www.wired.com/story/synthetic-image-media-bias-artificial-intelligence/