هوش مصنوعی می تواند صدای میزبان پادکست مورد علاقه شما را کلون کند


با،وبرام،ان می‌گوید که خدمات هوش مصنوعی صوتی باید مانند سایر شرکت‌هایی که داده‌های شخصی مانند اطلاعات مالی یا پزشکی را ذخیره می‌کنند، امنیت ارائه دهند.

شما باید از شرکت بپرسید که صدای هوش مصنوعی من چگونه ذخیره می شود؟ آیا در واقع ضبط های من را ذخیره می کنید؟ آیا آن را به صورت رمزگذاری شده ذخیره می کنید؟ چه ،ی به آن دسترسی دارد؟» با،وبرام،ان می گوید. «این بخشی از وجود من است. این خود صمیمی من است. من هم باید از آن محافظت کنم.»

Podcastle می‌گوید مدل‌های صوتی رمزگذاری‌شده سرتاسر هستند و این شرکت پس از ایجاد مدل هیچ ضبطی را نگه نمی‌دارد. فقط دارنده حسابی که کلیپ های صوتی را ضبط کرده است می تواند به آنها دسترسی داشته باشد. Podcastle همچنین اجازه نمی دهد صداهای دیگر در Revoice آپلود یا تجزیه و تحلیل شوند. در واقع، شخصی که یک کپی از صدای خود ایجاد می کند باید خطوط متن از پیش نوشته شده را مستقیماً در برنامه Revoice ضبط کند. آنها نمی توانند فقط یک فایل از پیش ضبط شده را آپلود کنند.

Yeritsyan از Podcastle می گوید: «شما هستید که اجازه می دهید و محتوا را ایجاد می کنید. او می گوید: «چه مصنوعی باشد چه اصلی، اگر این یک صدای عمیق جعلی نیست، صدای این شخص است و او آن را در آنجا منتشر کرده است. من مشکلی نمی بینم.»

Podcastle امیدوار است که توانایی ارائه صدا فقط با صدای شبیه‌سازی‌شده یک فرد رضایت‌دهنده، مردم را از گفتن چیزهای خیلی وحشتناک بازدارد. در حال حاضر، این سرویس هیچ گونه تعدیل محتوا یا محدودیتی برای کلمات یا عبارات خاص ندارد. یریتسیان می‌گوید این وظیفه هر سرویس یا رسانه‌ای است که صدا را منتشر می‌کند – مانند S،ify، Apple Podcasts، یا YouTube – که محتوایی را که به پلتفرم‌هایشان منتقل می‌شود، کنترل کند.

یریتسیان می‌گوید: «تیم‌های نظارتی عظیمی در هر پلتفرم اجتماعی یا هر پلتفرم پخش جری، وجود دارد. بنابراین وظیفه آنها این است که اجازه ندهند دیگران از صدای جعلی استفاده کنند و چیزی ،انه یا غیر اخلاقی ایجاد کنند و آن را در آنجا منتشر کنند.

حتی اگر به موضوع بسیار حساس دیپ‌فیک‌های صدا و کلون‌های هوش مصنوعی غیرقانونی پرداخته شود، هنوز مشخص نیست که آیا مردم کلون رایانه‌ای را به ،وان یک پایه قابل قبول برای انسان می‌پذیرند یا خیر.

در پایان ماه مارس، کمدین درو کری از سرویس هوش مصنوعی صوتی دیگری استفاده کرد. Eleven Labs، برای انتشار یک ،مت کامل از یک برنامه رادیویی که توسط کلون صدای او خوانده شده بود. در بیشتر موارد، مردم از آن متنفر بود. پاد،ت یک رسانه صمیمی است و ارتباط انس، مشخصی که هنگام گوش دادن به افراد در حال مکالمه یا داستان‌گویی احساس می‌کنید، وقتی روبات‌ها به سمت میکروفون می‌روند به راحتی از بین می‌رود.

اما چه اتفاقی می‌افتد وقتی فناوری به حدی پیشرفت می‌کند که نتو،د تفاوت را تشخیص دهید؟ آیا مهم است که پاد،تر مورد علاقه شما در گوش شما نباشد؟ گفتار هوش مصنوعی کلون شده راه هایی دارد که پیش از آن که از گفتار انسان قابل تشخیص نباشد، اما مطمئناً به سرعت فرا می رسد. فقط یک سال پیش، تصاویر تولید شده توسط هوش مصنوعی کارتونی به نظر می رسیدند، و اکنون به اندازه کافی واقع بینانه هستند که میلیون ها نفر را فریب می دهند تا فکر کنند پاپ لباس بیرونی جدیدی دارد. تصور اینکه صدای تولید شده توسط هوش مصنوعی مسیری مشابه داشته باشد، آسان است.

همچنین یکی دیگر از ویژگی‌های بسیار انس، علاقه‌مند به این ابزارهای مجهز به هوش مصنوعی وجود دارد: تنبلی. فناوری صدای هوش مصنوعی – با فرض اینکه به نقطه‌ای برسد که بتواند صداهای واقعی را به طور دقیق تقلید کند – انجام ویرایش‌ها یا بازخو،‌های سریع را بدون نیاز به بازگرداندن میزبان به استودیو آسان می‌کند.

با،وبرام،ان می گوید: «در نهایت، اقتصاد خالق پیروز خواهد شد. مهم نیست که چقدر به پیامدهای اخلاقی فکر می کنیم، برنده خواهد شد زیرا شما زندگی مردم را ساده کرده اید.


منبع: https://www.wired.com/story/ai-podcasts-podcastle-revoice-descript/