با،وبرام،ان میگوید که خدمات هوش مصنوعی صوتی باید مانند سایر شرکتهایی که دادههای شخصی مانند اطلاعات مالی یا پزشکی را ذخیره میکنند، امنیت ارائه دهند.
شما باید از شرکت بپرسید که صدای هوش مصنوعی من چگونه ذخیره می شود؟ آیا در واقع ضبط های من را ذخیره می کنید؟ آیا آن را به صورت رمزگذاری شده ذخیره می کنید؟ چه ،ی به آن دسترسی دارد؟» با،وبرام،ان می گوید. «این بخشی از وجود من است. این خود صمیمی من است. من هم باید از آن محافظت کنم.»
Podcastle میگوید مدلهای صوتی رمزگذاریشده سرتاسر هستند و این شرکت پس از ایجاد مدل هیچ ضبطی را نگه نمیدارد. فقط دارنده حسابی که کلیپ های صوتی را ضبط کرده است می تواند به آنها دسترسی داشته باشد. Podcastle همچنین اجازه نمی دهد صداهای دیگر در Revoice آپلود یا تجزیه و تحلیل شوند. در واقع، شخصی که یک کپی از صدای خود ایجاد می کند باید خطوط متن از پیش نوشته شده را مستقیماً در برنامه Revoice ضبط کند. آنها نمی توانند فقط یک فایل از پیش ضبط شده را آپلود کنند.
Yeritsyan از Podcastle می گوید: «شما هستید که اجازه می دهید و محتوا را ایجاد می کنید. او می گوید: «چه مصنوعی باشد چه اصلی، اگر این یک صدای عمیق جعلی نیست، صدای این شخص است و او آن را در آنجا منتشر کرده است. من مشکلی نمی بینم.»
Podcastle امیدوار است که توانایی ارائه صدا فقط با صدای شبیهسازیشده یک فرد رضایتدهنده، مردم را از گفتن چیزهای خیلی وحشتناک بازدارد. در حال حاضر، این سرویس هیچ گونه تعدیل محتوا یا محدودیتی برای کلمات یا عبارات خاص ندارد. یریتسیان میگوید این وظیفه هر سرویس یا رسانهای است که صدا را منتشر میکند – مانند S،ify، Apple Podcasts، یا YouTube – که محتوایی را که به پلتفرمهایشان منتقل میشود، کنترل کند.
یریتسیان میگوید: «تیمهای نظارتی عظیمی در هر پلتفرم اجتماعی یا هر پلتفرم پخش جری، وجود دارد. بنابراین وظیفه آنها این است که اجازه ندهند دیگران از صدای جعلی استفاده کنند و چیزی ،انه یا غیر اخلاقی ایجاد کنند و آن را در آنجا منتشر کنند.
حتی اگر به موضوع بسیار حساس دیپفیکهای صدا و کلونهای هوش مصنوعی غیرقانونی پرداخته شود، هنوز مشخص نیست که آیا مردم کلون رایانهای را به ،وان یک پایه قابل قبول برای انسان میپذیرند یا خیر.
در پایان ماه مارس، کمدین درو کری از سرویس هوش مصنوعی صوتی دیگری استفاده کرد. Eleven Labs، برای انتشار یک ،مت کامل از یک برنامه رادیویی که توسط کلون صدای او خوانده شده بود. در بیشتر موارد، مردم از آن متنفر بود. پاد،ت یک رسانه صمیمی است و ارتباط انس، مشخصی که هنگام گوش دادن به افراد در حال مکالمه یا داستانگویی احساس میکنید، وقتی روباتها به سمت میکروفون میروند به راحتی از بین میرود.
اما چه اتفاقی میافتد وقتی فناوری به حدی پیشرفت میکند که نتو،د تفاوت را تشخیص دهید؟ آیا مهم است که پاد،تر مورد علاقه شما در گوش شما نباشد؟ گفتار هوش مصنوعی کلون شده راه هایی دارد که پیش از آن که از گفتار انسان قابل تشخیص نباشد، اما مطمئناً به سرعت فرا می رسد. فقط یک سال پیش، تصاویر تولید شده توسط هوش مصنوعی کارتونی به نظر می رسیدند، و اکنون به اندازه کافی واقع بینانه هستند که میلیون ها نفر را فریب می دهند تا فکر کنند پاپ لباس بیرونی جدیدی دارد. تصور اینکه صدای تولید شده توسط هوش مصنوعی مسیری مشابه داشته باشد، آسان است.
همچنین یکی دیگر از ویژگیهای بسیار انس، علاقهمند به این ابزارهای مجهز به هوش مصنوعی وجود دارد: تنبلی. فناوری صدای هوش مصنوعی – با فرض اینکه به نقطهای برسد که بتواند صداهای واقعی را به طور دقیق تقلید کند – انجام ویرایشها یا بازخو،های سریع را بدون نیاز به بازگرداندن میزبان به استودیو آسان میکند.
با،وبرام،ان می گوید: «در نهایت، اقتصاد خالق پیروز خواهد شد. مهم نیست که چقدر به پیامدهای اخلاقی فکر می کنیم، برنده خواهد شد زیرا شما زندگی مردم را ساده کرده اید.
منبع: https://www.wired.com/story/ai-podcasts-podcastle-revoice-descript/