با ظهور مشکلات بیشتر و بیشتری در زمینه هوش مصنوعی، از جمله تعصبات در مورد نژاد، ،ت و سن، بسیاری از شرکت های فناوری تیم های “هوش مصنوعی اخلاقی” را نصب کرده اند که ظاهراً به شناسایی و کاهش چنین مسائلی اختصاص داده شده اند.
واحد META توییتر در انتشار جزئیات مشکلات سیستمهای هوش مصنوعی این شرکت و اجازه دادن به محققان خارجی برای بررسی الگوریتمهای آن برای مسائل جدید پیشروتر از بقیه بود.
سال گذشته، پس از اینکه کاربران توییتر متوجه شدند که به نظر میرسد یک الگوریتم برش ع، در انتخاب روش کوتاه ، تصاویر به نفع چهرههای سفید است، توییتر تصمیم غیرمعمولی گرفت و به واحد META خود اجازه داد جزئیات سوگیری را که کشف کرده است منتشر کند. این گروه همچنین یکی از اولین مسابقههای «نیاز تعصب» را راهاندازی کرد که به محققان خارجی اجازه میداد الگوریتم را برای مشکلات دیگر آزمایش کنند. اکتبر گذشته، تیم C،wdhury نیز جزئیات سوگیری سیاسی غیرعمدی را منتشر کرد در توییتر، نشان می دهد که چگونه منابع خبری با گرایش راست در واقع بیشتر از منابع چپ تبلیغ می شوند.
بسیاری از محققان خارجی این ا،اج را نه تنها برای توییتر بلکه برای تلاشها برای بهبود هوش مصنوعی ضربهای میدانستند. “چه مصیبتی،” کیت استاربرد، دانشیار دانشگاه واشنگتن که در مورد اطلاعات نادرست آنلاین مطالعه می کند، در توییتر نوشت.
محتوای توییتر
این مطالب را می توان در سایت آن نیز مشاهده کرد سرچشمه می گیرد از جانب.
میگوید: «تیم META یکی از تنها مطالعات موردی خوب یک شرکت فناوری بود که یک گروه اخلاقی هوش مصنوعی را اداره میکرد که با مردم و دانشگاهها با اعتبار قابلتوجهی در تعامل است. علی الخطیب، مدیر مرکز اخلاق داده های کاربردی در دانشگاه سانفرانسیسکو.
الخاتیب میگوید چاودری در جامعه اخلاقی هوش مصنوعی بسیار خوب فکر میکند و تیم او واقعاً کار ارزشمندی را انجام داده است که بیگتک را پاسخگو میداند. او میگوید: «تیمهای اخلاقی سازم، زیادی وجود ندارند که ارزش جدی گرفتن داشته باشند. این یکی از ،، بود که من کارهایش را در ک،ها تدریس میکردم.»
مارک ریدلپروفسوری که هوش مصنوعی را در جورجیا تک مطالعه میکند، میگوید الگوریتمهایی که توییتر و دیگر غولهای رسانههای اجتماعی استفاده میکنند، تأثیر زیادی بر زندگی مردم دارند و نیاز به مطالعه دارند. او میگوید: «تشخیص اینکه آیا متا در داخل توییتر تأثیری داشت یا نه، از بیرون به سختی قابل تشخیص است، اما این وعده وجود داشت.
ریدل میافزاید که اجازه دادن به افراد خارجی برای بررسی الگوریتمهای توییتر گام مهمی در جهت شفافیت بیشتر و درک مسائل پیرامون هوش مصنوعی بود. او میگوید: «آنها در حال تبدیل شدن به یک نگهبان بودند که میتوانست به بقیه کمک کند تا بفهمیم هوش مصنوعی چگونه بر ما تأثیر میگذارد. محققان در META دارای اعتبار برجسته با سابقه طول، مطالعه هوش مصنوعی برای منافع اجتماعی بودند.
در مورد ایده ماسک مبنی بر منبع باز الگوریتم توییتر، واقعیت بسیار پیچیده تر خواهد بود. الگوریتمهای مختلفی وجود دارند که بر نحوه نمایش اطلاعات تأثیر میگذارند، و درک آنها بدون دادههای زمان واقعی از نظر توییتها، بازدیدها و لایکها، چالش برانگیز است.
این ایده که یک الگوریتم با گرایش سیاسی صریح وجود دارد ممکن است سیستمی را که می تواند سوگیری ها و مشکلات موذیانه تری را در خود جای دهد، بیش از حد ساده کند. کشف اینها دقیقاً همان کاری است که گروه META توییتر انجام می داد. الخطیب از دانشگاه سانفرانسیسکو می گوید: «گروه های زیادی وجود ندارند که به طور دقیق سوگیری ها و خطاهای الگوریتم های خود را مطالعه کنند. متا این کار را کرد. و اکنون، اینطور نیست.
منبع: https://www.wired.com/story/twitter-ethical-ai-team/