ایلان ماسک تیم «هوش مصنوعی اخلاقی» توییتر را اخراج کرد


با ظهور مشکلات بیشتر و بیشتری در زمینه هوش مصنوعی، از جمله تعصبات در مورد نژاد، ،ت و سن، بسیاری از شرکت های فناوری تیم های “هوش مصنوعی اخلاقی” را نصب کرده اند که ظاهراً به شناسایی و کاهش چنین مسائلی اختصاص داده شده اند.

واحد META توییتر در انتشار جزئیات مشکلات سیستم‌های هوش مصنوعی این شرکت و اجازه دادن به محققان خارجی برای بررسی الگوریتم‌های آن برای مسائل جدید پیشروتر از بقیه بود.

سال گذشته، پس از اینکه کاربران توییتر متوجه شدند که به نظر می‌رسد یک الگوریتم برش ع، در انتخاب روش کوتاه ، تصاویر به نفع چهره‌های سفید است، توییتر تصمیم غیرمعمولی گرفت و به واحد META خود اجازه داد جزئیات سوگیری را که کشف کرده است منتشر کند. این گروه همچنین یکی از اولین مسابقه‌های «نیاز تعصب» را راه‌اندازی کرد که به محققان خارجی اجازه می‌داد الگوریتم را برای مشکلات دیگر آزمایش کنند. اکتبر گذشته، تیم C،wdhury نیز جزئیات سوگیری سیاسی غیرعمدی را منتشر کرد در توییتر، نشان می دهد که چگونه منابع خبری با گرایش راست در واقع بیشتر از منابع چپ تبلیغ می شوند.

بسیاری از محققان خارجی این ا،اج را نه تنها برای توییتر بلکه برای تلاش‌ها برای بهبود هوش مصنوعی ضربه‌ای می‌دانستند. “چه مصیبتی،” کیت استاربرد، دانشیار دانشگاه واشنگتن که در مورد اطلاعات نادرست آنلاین مطالعه می کند، در توییتر نوشت.

محتوای توییتر

این مطالب را می توان در سایت آن نیز مشاهده کرد سرچشمه می گیرد از جانب.

می‌گوید: «تیم META یکی از تنها مطالعات موردی خوب یک شرکت فناوری بود که یک گروه اخلاقی هوش مصنوعی را اداره می‌کرد که با مردم و دانشگاه‌ها با اعتبار قابل‌توجهی در تعامل است. علی الخطیب، مدیر مرکز اخلاق داده های کاربردی در دانشگاه سانفرانسیسکو.

الخاتیب ​​می‌گوید چاودری در جامعه اخلاقی هوش مصنوعی بسیار خوب فکر می‌کند و تیم او واقعاً کار ارزشمندی را انجام داده است که بیگ‌تک را پاسخگو می‌داند. او می‌گوید: «تیم‌های اخلاقی سازم، زیادی وجود ندارند که ارزش جدی گرفتن داشته باشند. این یکی از ،، بود که من کارهایش را در ک،‌ها تدریس می‌کردم.»

مارک ریدلپروفسوری که هوش مصنوعی را در جورجیا تک مطالعه می‌کند، می‌گوید الگوریتم‌هایی که توییتر و دیگر غول‌های رسانه‌های اجتماعی استفاده می‌کنند، تأثیر زیادی بر زندگی مردم دارند و نیاز به مطالعه دارند. او می‌گوید: «تشخیص اینکه آیا متا در داخل توییتر تأثیری داشت یا نه، از بیرون به سختی قابل تشخیص است، اما این وعده وجود داشت.

ریدل می‌افزاید که اجازه دادن به افراد خارجی برای بررسی الگوریتم‌های توییتر گام مهمی در جهت شفافیت بیشتر و درک مسائل پیرامون هوش مصنوعی بود. او می‌گوید: «آنها در حال تبدیل شدن به یک نگهبان بودند که می‌توانست به بقیه کمک کند تا بفهمیم هوش مصنوعی چگونه بر ما تأثیر می‌گذارد. محققان در META دارای اعتبار برجسته با سابقه طول، مطالعه هوش مصنوعی برای منافع اجتماعی بودند.

در مورد ایده ماسک مبنی بر منبع باز الگوریتم توییتر، واقعیت بسیار پیچیده تر خواهد بود. الگوریتم‌های مختلفی وجود دارند که بر نحوه نمایش اطلاعات تأثیر می‌گذارند، و درک آن‌ها بدون داده‌های زمان واقعی از نظر توییت‌ها، بازدیدها و لایک‌ها، چالش برانگیز است.

این ایده که یک الگوریتم با گرایش سیاسی صریح وجود دارد ممکن است سیستمی را که می تواند سوگیری ها و مشکلات موذیانه تری را در خود جای دهد، بیش از حد ساده کند. کشف اینها دقیقاً همان کاری است که گروه META توییتر انجام می داد. الخطیب از دانشگاه سانفرانسیسکو می گوید: «گروه های زیادی وجود ندارند که به طور دقیق سوگیری ها و خطاهای الگوریتم های خود را مطالعه کنند. متا این کار را کرد. و اکنون، اینطور نیست.




منبع: https://www.wired.com/story/twitter-ethical-ai-team/