ChatGPT می تواند به پزشکان و آسیب رساندن به بیماران کمک کند


او می‌گوید: «دانش و شیوه‌های پزشکی در طول زمان تغییر می‌کنند و تکامل می‌یابند، و نمی‌توان گفت که ChatGPT اطلاعات خود را از کجا در ج، زم، پزشکی در هنگام بیان یک درمان معمولی است،اج می‌کند. “آیا این اطلاعات جدید هستند یا تاریخ دارند؟”

کاربران همچنین باید مراقب باشند که چگونه ربات‌های به سبک ChatGPT می‌توانند اطلاعات ساختگی یا «توهم‌آمیز» را به شیوه‌ای رو، سطحی ارائه دهند که اگر شخص پاسخ‌های الگوریتم را بررسی نکند، احتمالاً منجر به خطاهای جدی می‌شود. و متن تولید شده توسط هوش مصنوعی می تواند انسان را به روش های ظریف تحت تاثیر قرار دهد. یک مطالعه منتشر شده در ژانویه، که مورد بازبینی همتایان قرار نگرفته است، که تیزرهای اخلاقی را برای ChatGPT ارائه کرد، به این نتیجه رسید که چت ربات یک مشاور اخلاقی ناسازگار ایجاد می کند که می تواند بر تصمیم گیری های انس، تأثیر بگذارد، حتی زم، که مردم می دانند که توصیه ها از نرم افزار هوش مصنوعی می آید.

پزشک بودن چیزی فراتر از بازگرداندن دانش پزشکی دایره المعارفی است. در حالی که بسیاری از پزشکان مشتاق استفاده از ChatGPT برای کارهای کم خطر مانند خلاصه سازی متن هستند، برخی از متخصصان اخلاق زیستی نگران هستند که پزشکان در صورت مواجهه با یک تصمیم اخلاقی سخت مانند اینکه آیا جراحی برای یک بیمار با احتمال کم گزینه من،ی است یا خیر، برای مشاوره به ربات مراجعه کنند. بقا یا بهبودی

جیمی وب، یک متخصص اخلاق زیستی در مرکز آینده‌های فناوری در دانشگاه ادینبورگ، می‌گوید: «شما نمی‌تو،د این نوع فرآیند را به یک مدل هوش مصنوعی مولد برون‌سپاری یا خودکار کنید.

سال گذشته، وب و تیمی از روانشناسان اخلاقی بررسی ،د که برای ساختن یک “مشاور اخلاقی” مبتنی بر هوش مصنوعی برای استفاده در پزشکی، با الهام از چه چیزی لازم است. پژوهش قبلی که این ایده را پیشنهاد کرد. وب و همکارانش به این نتیجه رسیدند که برای چنین سیستم‌هایی ایجاد تعادل در اصول اخلاقی مختلف دشوار خواهد بود و اگر پزشکان و سایر کارکنان به جای فکر ، در مورد تصمیمات پیچیده، از مهارت‌زدایی اخلاقی رنج ببرند. .

وب اشاره می‌کند که قبلاً به پزشکان گفته شده بود که هوش مصنوعی که زبان را پردازش می‌کند، انقلابی در کار آنها ایجاد می‌کند، اما ناامید می‌شوند. بعد از خطر! در سال‌های 2010 و 2011، بخش Watson در IBM به انکولوژی روی آورد و ادعاهایی در مورد اثربخشی مبارزه با سرطان با هوش مصنوعی داشت. اما این راه حل، که در ابتدا یادبود اسلون کترینگ در جعبه نام داشت، در تنظیمات بالینی آنچنان که تبلیغات تبلیغاتی نشان می داد، موفق نبود. و در سال 2020 IBM این پروژه را تعطیل کرد.

زم، که تبلیغات تبلیغاتی توخالی باشد، ممکن است عواقب پایداری داشته باشد. در طول یک پانل بحث در ماه فوریه در هاروارد در مورد پتانسیل هوش مصنوعی در پزشکی، Trishan Panch، پزشک مراقبت های اولیه، به یاد می آورد که یک همکار پست خود را در توییتر برای به اشتراک گذاشتن نتایج درخواست ChatGPT برای تشخیص بیماری، بلافاصله پس از انتشار چت بات، به یاد می آورد.

پانچ به یاد می آورد که پزشکان هیجان زده به سرعت با تعهد به استفاده از این فناوری در کارهای خود پاسخ دادند، اما در حدود بیستمین پاسخ، پزشک دیگری آمد و گفت هر مرجعی که توسط این مدل ایجاد می شود جعلی است. پانچ که یکی از بنیانگذاران استارت آپ نرم افزار مراقبت های بهداشتی Wellframe است، می گوید: «فقط یک یا دو مورد از این قبیل برای از بین بردن اعتماد در کل موضوع لازم است.

علیرغم اشتباهات گاه فاحش هوش مصنوعی، رابرت پرل، که سابقاً از Kaiser Permanente بود، در مورد مدل‌های زب، مانند ChatGPT بسیار خوش‌بین است. او بر این باور است که در سال‌های آینده، مدل‌های زب، در مراقبت‌های بهداشتی بیشتر شبیه آیفون خواهند شد، پر از ویژگی‌ها و قدرتی که می‌تواند پزشکان را تقویت کند و به بیماران در مدیریت بیماری‌های مزمن کمک کند. او حتی مشکوک است که مدل‌های زب، مانند ChatGPT می‌توانند به کاهش آن کمک کنند بیش از 250000 کشته که سالانه در ایالات متحده در نتیجه خطاهای پزشکی رخ می دهد.

Pearl برخی چیزها را برای هوش مصنوعی غیرمجاز در نظر می گیرد. او می‌گوید کمک به افراد برای کنار آمدن با غم و اندوه، گفت،ای پایان زندگی با خانواده‌ها و صحبت در مورد روش‌هایی که خطر عوارض بالایی دارند نباید شامل یک ربات باشد، زیرا نیازهای هر بیمار آنقدر متغیر است که باید آن مکالمات را انجام داد. برای رسیدن به آنجا

پرل می‌گوید: «این مکالمات انسان به انسان است. “اگر اشتباه می کنم، به این دلیل است که سرعت پیشرفت در فناوری را بیش از حد برآورد می کنم. اما هر بار که نگاه می‌کنم، سریع‌تر از آن چیزی که حتی فکر می‌کردم حرکت می‌کند.»

در حال حاضر، او ChatGPT را به یک دانشجوی پزشکی تشبیه می کند: قادر به ارائه مراقبت به بیماران و ارائه خدمات است، اما هر کاری که انجام می دهد باید توسط یک پزشک معالج بررسی شود.


منبع: https://www.wired.com/story/chatgpt-can-help-doctors-and-hurt-patients/