او میگوید: «دانش و شیوههای پزشکی در طول زمان تغییر میکنند و تکامل مییابند، و نمیتوان گفت که ChatGPT اطلاعات خود را از کجا در ج، زم، پزشکی در هنگام بیان یک درمان معمولی است،اج میکند. “آیا این اطلاعات جدید هستند یا تاریخ دارند؟”
کاربران همچنین باید مراقب باشند که چگونه رباتهای به سبک ChatGPT میتوانند اطلاعات ساختگی یا «توهمآمیز» را به شیوهای رو، سطحی ارائه دهند که اگر شخص پاسخهای الگوریتم را بررسی نکند، احتمالاً منجر به خطاهای جدی میشود. و متن تولید شده توسط هوش مصنوعی می تواند انسان را به روش های ظریف تحت تاثیر قرار دهد. یک مطالعه منتشر شده در ژانویه، که مورد بازبینی همتایان قرار نگرفته است، که تیزرهای اخلاقی را برای ChatGPT ارائه کرد، به این نتیجه رسید که چت ربات یک مشاور اخلاقی ناسازگار ایجاد می کند که می تواند بر تصمیم گیری های انس، تأثیر بگذارد، حتی زم، که مردم می دانند که توصیه ها از نرم افزار هوش مصنوعی می آید.
پزشک بودن چیزی فراتر از بازگرداندن دانش پزشکی دایره المعارفی است. در حالی که بسیاری از پزشکان مشتاق استفاده از ChatGPT برای کارهای کم خطر مانند خلاصه سازی متن هستند، برخی از متخصصان اخلاق زیستی نگران هستند که پزشکان در صورت مواجهه با یک تصمیم اخلاقی سخت مانند اینکه آیا جراحی برای یک بیمار با احتمال کم گزینه من،ی است یا خیر، برای مشاوره به ربات مراجعه کنند. بقا یا بهبودی
جیمی وب، یک متخصص اخلاق زیستی در مرکز آیندههای فناوری در دانشگاه ادینبورگ، میگوید: «شما نمیتو،د این نوع فرآیند را به یک مدل هوش مصنوعی مولد برونسپاری یا خودکار کنید.
سال گذشته، وب و تیمی از روانشناسان اخلاقی بررسی ،د که برای ساختن یک “مشاور اخلاقی” مبتنی بر هوش مصنوعی برای استفاده در پزشکی، با الهام از چه چیزی لازم است. پژوهش قبلی که این ایده را پیشنهاد کرد. وب و همکارانش به این نتیجه رسیدند که برای چنین سیستمهایی ایجاد تعادل در اصول اخلاقی مختلف دشوار خواهد بود و اگر پزشکان و سایر کارکنان به جای فکر ، در مورد تصمیمات پیچیده، از مهارتزدایی اخلاقی رنج ببرند. .
وب اشاره میکند که قبلاً به پزشکان گفته شده بود که هوش مصنوعی که زبان را پردازش میکند، انقلابی در کار آنها ایجاد میکند، اما ناامید میشوند. بعد از خطر! در سالهای 2010 و 2011، بخش Watson در IBM به انکولوژی روی آورد و ادعاهایی در مورد اثربخشی مبارزه با سرطان با هوش مصنوعی داشت. اما این راه حل، که در ابتدا یادبود اسلون کترینگ در جعبه نام داشت، در تنظیمات بالینی آنچنان که تبلیغات تبلیغاتی نشان می داد، موفق نبود. و در سال 2020 IBM این پروژه را تعطیل کرد.
زم، که تبلیغات تبلیغاتی توخالی باشد، ممکن است عواقب پایداری داشته باشد. در طول یک پانل بحث در ماه فوریه در هاروارد در مورد پتانسیل هوش مصنوعی در پزشکی، Trishan Panch، پزشک مراقبت های اولیه، به یاد می آورد که یک همکار پست خود را در توییتر برای به اشتراک گذاشتن نتایج درخواست ChatGPT برای تشخیص بیماری، بلافاصله پس از انتشار چت بات، به یاد می آورد.
پانچ به یاد می آورد که پزشکان هیجان زده به سرعت با تعهد به استفاده از این فناوری در کارهای خود پاسخ دادند، اما در حدود بیستمین پاسخ، پزشک دیگری آمد و گفت هر مرجعی که توسط این مدل ایجاد می شود جعلی است. پانچ که یکی از بنیانگذاران استارت آپ نرم افزار مراقبت های بهداشتی Wellframe است، می گوید: «فقط یک یا دو مورد از این قبیل برای از بین بردن اعتماد در کل موضوع لازم است.
علیرغم اشتباهات گاه فاحش هوش مصنوعی، رابرت پرل، که سابقاً از Kaiser Permanente بود، در مورد مدلهای زب، مانند ChatGPT بسیار خوشبین است. او بر این باور است که در سالهای آینده، مدلهای زب، در مراقبتهای بهداشتی بیشتر شبیه آیفون خواهند شد، پر از ویژگیها و قدرتی که میتواند پزشکان را تقویت کند و به بیماران در مدیریت بیماریهای مزمن کمک کند. او حتی مشکوک است که مدلهای زب، مانند ChatGPT میتوانند به کاهش آن کمک کنند بیش از 250000 کشته که سالانه در ایالات متحده در نتیجه خطاهای پزشکی رخ می دهد.
Pearl برخی چیزها را برای هوش مصنوعی غیرمجاز در نظر می گیرد. او میگوید کمک به افراد برای کنار آمدن با غم و اندوه، گفت،ای پایان زندگی با خانوادهها و صحبت در مورد روشهایی که خطر عوارض بالایی دارند نباید شامل یک ربات باشد، زیرا نیازهای هر بیمار آنقدر متغیر است که باید آن مکالمات را انجام داد. برای رسیدن به آنجا
پرل میگوید: «این مکالمات انسان به انسان است. “اگر اشتباه می کنم، به این دلیل است که سرعت پیشرفت در فناوری را بیش از حد برآورد می کنم. اما هر بار که نگاه میکنم، سریعتر از آن چیزی که حتی فکر میکردم حرکت میکند.»
در حال حاضر، او ChatGPT را به یک دانشجوی پزشکی تشبیه می کند: قادر به ارائه مراقبت به بیماران و ارائه خدمات است، اما هر کاری که انجام می دهد باید توسط یک پزشک معالج بررسی شود.
منبع: https://www.wired.com/story/chatgpt-can-help-doctors-and-hurt-patients/