طرحی رادیکال برای خوب کردن هوش مصنوعی نه بد


این آسان است در مورد پیشرفته تر وحشت کنید هوش مصنوعی– و دانستن اینکه در مورد آن چه باید کرد بسیار دشوارتر است. آنتروپیکاستارت آپی که در سال 2021 توسط گروهی از محقق، که OpenAI را ، ،د، تأسیس شد، می گوید که برنامه ای دارد.

Anthropic در حال کار بر روی مدل‌های هوش مصنوعی مشابه مدلی است که برای تامین انرژی ChatGPT OpenAI استفاده می‌شود. اما این استارت آپ امروز اعلام کرد که چت بات خودش، کلود، دارای مجموعه ای از اصول اخلاقی است که مشخص می کند چه چیزی را باید درست و نادرست در نظر بگیرد، که آنتروپیک آن را “قانون اساسی” ربات می نامد.

جارد کاپلان، یکی از بنیانگذاران Anthropic، می‌گوید که ویژگی طراحی نشان می‌دهد که چگونه این شرکت در تلاش است تا راه‌حل‌های مهندسی عملی برای نگر،‌های گاهی مبهم در مورد جنبه‌های منفی هوش مصنوعی قوی‌تر پیدا کند. او می‌گوید: «ما بسیار نگران هستیم، اما همچنین سعی می‌کنیم عمل‌گرا باقی بم،م».

رویکرد آنتروپیک به هوش مصنوعی قو،ن سختی را القا نمی کند که نمی تواند آنها را زیر پا بگذارد. اما کاپلان می‌گوید که این روش مؤثرتری برای کاهش احتمال تولید ،وجی سمی یا ناخواسته در سیستمی مانند ربات چت است. او همچنین می‌گوید که این یک گام کوچک اما م،ی‌دار به سمت ساختن برنامه‌های هوش مصنوعی هوشمندتر است که احتمال کمتری دارد علیه سازندگان خود مخالفت کنند.

مفهوم سیستم‌های هوش مصنوعی سرکش بیشتر از داستان‌های علمی تخیلی شناخته شده است، اما تعداد فزاینده‌ای از متخصصان، از جمله جفری هینتون، یکی از پیشگامان یادگیری ماشین، استدلال کرده‌اند که ما باید از هم‌اکنون شروع کنیم به این فکر کنیم که چگونه اطمینان حاصل کنیم که الگوریتم‌های هوشمندانه‌تر نیز نمی‌شوند. به طور فزاینده ای خطرناک

اصولی که آنتروپیک به کلود داده است شامل رهنمودهایی است که از سازمان ملل گرفته شده است اعلامیه جه، حقوق بشر و توسط سایر شرکت های هوش مصنوعی از جمله Google DeepMind پیشنهاد شده است. شگفت آورتر اینکه قانون اساسی شامل اصولی است که از اصول اپل اقتباس شده است قو،ن برای توسعه دهندگان برنامه، که “محتوای توهین آمیز، غیر حساس، ناراحت کننده، با هدف منزجر کننده بودن، با سلیقه بسیار بد، یا فقط وحشتناک” را از جمله موارد دیگر ممنوع می کند.

قانون اساسی شامل قو،نی برای چت بات است، از جمله «پاسخی را انتخاب کنید که بیشتر از آزادی، برابری و احساس برادری حمایت و تشویق کند». “پاسخی را انتخاب کنید که بیشتر حمایت کننده و تشویق کننده زندگی، آزادی و امنیت شخصی باشد”. و “پاسخی را انتخاب کنید که بیشترین احترام را به حق آزادی فکر، وجدان، عقیده، بیان، اجتماعات و مذهب داشته باشد.”

رویکرد آنتروپیک درست همان‌طور است که پیشرفت خیره‌کننده در هوش مصنوعی، چت‌ربات‌های روان و قابل‌توجهی را با نقص‌های قابل توجه ارائه می‌دهد. ChatGPT و سیستم‌هایی مانند آن پاسخ‌های چشمگیری تولید می‌کنند که منع،‌کننده پیشرفت سریع‌تر از حد انتظار است. اما این چت‌بات‌ها اغلب اطلاعاتی را تولید می‌کنند و می‌توانند زبان سمی را از میلیاردها کلمه‌ای که برای ایجاد آن‌ها استفاده می‌شوند، تکرار کنند، که بسیاری از آنها از اینترنت حذف شده‌اند.

یکی از ترفندهایی که ChatGPT OpenAI را در پاسخ به سؤالات بهتر کرد و توسط دیگران نیز پذیرفته شده است، این است که کیفیت پاسخ‌های یک مدل زب، را درجه‌بندی کنند. این داده‌ها می‌توانند برای تنظیم مدل به منظور ارائه پاسخ‌هایی که احساس رضایت‌بخش‌تری دارند، در فرآیندی به نام «یادگیری تقویتی با بازخورد انس،» (RLHF) استفاده شود. اما اگرچه این تکنیک کمک می‌کند تا ChatGPT و سایر سیستم‌ها قابل پیش‌بینی‌تر شوند، اما انسان‌ها باید هزاران پاسخ سمی یا نامن، را پشت سر بگذارند. همچنین به طور غیرمستقیم عمل می کند، بدون اینکه راهی برای تعیین مقادیر دقیقی که یک سیستم باید منع، کند، ارائه دهد.


منبع: https://www.wired.com/story/anthropic-ai-chatbots-ethics/