این آسان است در مورد پیشرفته تر وحشت کنید هوش مصنوعی– و دانستن اینکه در مورد آن چه باید کرد بسیار دشوارتر است. آنتروپیکاستارت آپی که در سال 2021 توسط گروهی از محقق، که OpenAI را ، ،د، تأسیس شد، می گوید که برنامه ای دارد.
Anthropic در حال کار بر روی مدلهای هوش مصنوعی مشابه مدلی است که برای تامین انرژی ChatGPT OpenAI استفاده میشود. اما این استارت آپ امروز اعلام کرد که چت بات خودش، کلود، دارای مجموعه ای از اصول اخلاقی است که مشخص می کند چه چیزی را باید درست و نادرست در نظر بگیرد، که آنتروپیک آن را “قانون اساسی” ربات می نامد.
جارد کاپلان، یکی از بنیانگذاران Anthropic، میگوید که ویژگی طراحی نشان میدهد که چگونه این شرکت در تلاش است تا راهحلهای مهندسی عملی برای نگر،های گاهی مبهم در مورد جنبههای منفی هوش مصنوعی قویتر پیدا کند. او میگوید: «ما بسیار نگران هستیم، اما همچنین سعی میکنیم عملگرا باقی بم،م».
رویکرد آنتروپیک به هوش مصنوعی قو،ن سختی را القا نمی کند که نمی تواند آنها را زیر پا بگذارد. اما کاپلان میگوید که این روش مؤثرتری برای کاهش احتمال تولید ،وجی سمی یا ناخواسته در سیستمی مانند ربات چت است. او همچنین میگوید که این یک گام کوچک اما م،یدار به سمت ساختن برنامههای هوش مصنوعی هوشمندتر است که احتمال کمتری دارد علیه سازندگان خود مخالفت کنند.
مفهوم سیستمهای هوش مصنوعی سرکش بیشتر از داستانهای علمی تخیلی شناخته شده است، اما تعداد فزایندهای از متخصصان، از جمله جفری هینتون، یکی از پیشگامان یادگیری ماشین، استدلال کردهاند که ما باید از هماکنون شروع کنیم به این فکر کنیم که چگونه اطمینان حاصل کنیم که الگوریتمهای هوشمندانهتر نیز نمیشوند. به طور فزاینده ای خطرناک
اصولی که آنتروپیک به کلود داده است شامل رهنمودهایی است که از سازمان ملل گرفته شده است اعلامیه جه، حقوق بشر و توسط سایر شرکت های هوش مصنوعی از جمله Google DeepMind پیشنهاد شده است. شگفت آورتر اینکه قانون اساسی شامل اصولی است که از اصول اپل اقتباس شده است قو،ن برای توسعه دهندگان برنامه، که “محتوای توهین آمیز، غیر حساس، ناراحت کننده، با هدف منزجر کننده بودن، با سلیقه بسیار بد، یا فقط وحشتناک” را از جمله موارد دیگر ممنوع می کند.
قانون اساسی شامل قو،نی برای چت بات است، از جمله «پاسخی را انتخاب کنید که بیشتر از آزادی، برابری و احساس برادری حمایت و تشویق کند». “پاسخی را انتخاب کنید که بیشتر حمایت کننده و تشویق کننده زندگی، آزادی و امنیت شخصی باشد”. و “پاسخی را انتخاب کنید که بیشترین احترام را به حق آزادی فکر، وجدان، عقیده، بیان، اجتماعات و مذهب داشته باشد.”
رویکرد آنتروپیک درست همانطور است که پیشرفت خیرهکننده در هوش مصنوعی، چترباتهای روان و قابلتوجهی را با نقصهای قابل توجه ارائه میدهد. ChatGPT و سیستمهایی مانند آن پاسخهای چشمگیری تولید میکنند که منع،کننده پیشرفت سریعتر از حد انتظار است. اما این چتباتها اغلب اطلاعاتی را تولید میکنند و میتوانند زبان سمی را از میلیاردها کلمهای که برای ایجاد آنها استفاده میشوند، تکرار کنند، که بسیاری از آنها از اینترنت حذف شدهاند.
یکی از ترفندهایی که ChatGPT OpenAI را در پاسخ به سؤالات بهتر کرد و توسط دیگران نیز پذیرفته شده است، این است که کیفیت پاسخهای یک مدل زب، را درجهبندی کنند. این دادهها میتوانند برای تنظیم مدل به منظور ارائه پاسخهایی که احساس رضایتبخشتری دارند، در فرآیندی به نام «یادگیری تقویتی با بازخورد انس،» (RLHF) استفاده شود. اما اگرچه این تکنیک کمک میکند تا ChatGPT و سایر سیستمها قابل پیشبینیتر شوند، اما انسانها باید هزاران پاسخ سمی یا نامن، را پشت سر بگذارند. همچنین به طور غیرمستقیم عمل می کند، بدون اینکه راهی برای تعیین مقادیر دقیقی که یک سیستم باید منع، کند، ارائه دهد.
منبع: https://www.wired.com/story/anthropic-ai-chatbots-ethics/