ChatGPT می تواند به پزشکان و آسیب رساندن به بیماران کمک کند
“دانش و شیوههای پزشکی در طول زمان تغییر میکنند و تکامل مییابند، و نمیتوان گفت که ChatGPT هنگام بیان یک درمان معمولی، اطلاعات خود را از کجا در جدول زمانی پزشکی میگیرد.” می گوید. «آیا این اطلاعات جدید هستند یا تاریخ دارند؟»
کاربران همچنین باید مراقب باشند که رباتهای سبک ChatGPT چگونه میتوانند اطلاعات ساختگی، یا “توهم” در روی سطحی، اگر فردی پاسخ های الگوریتم را بررسی نکند، احتمالاً منجر به خطاهای جدی می شود. و متن تولید شده توسط هوش مصنوعی می تواند انسان را به روش های ظریف تحت تاثیر قرار دهد. یک مطالعه منتشر شده در ژانویه، که مورد بازبینی همتایان قرار نگرفته بود، و تیزرهای اخلاقی را برای ChatGPT ارائه کرد، به این نتیجه رسید که ربات چت یک مشاور اخلاقی ناسازگار ایجاد می کند که می تواند بر تصمیم گیری انسانی تأثیر بگذارد، حتی زمانی که مردم می دانند که توصیه ها از طریق نرم افزار هوش مصنوعی است.
پزشک بودن چیزی فراتر از بازگرداندن دانش پزشکی دایره المعارفی است. در حالی که بسیاری از پزشکان مشتاق استفاده از ChatGPT برای کارهای کم خطر مانند خلاصه سازی متن هستند، برخی از متخصصان اخلاق زیستی نگران هستند که پزشکان در صورت مواجهه با یک تصمیم اخلاقی سخت مانند اینکه آیا جراحی برای یک بیمار با احتمال کم گزینه مناسبی است یا خیر، برای مشاوره به ربات مراجعه کنند. از بقا یا بهبودی.
«شما نمی توانید این نوع فرآیند را به یک مدل هوش مصنوعی مولد برون سپاری یا خودکارسازی کنید. دانشگاه ادینبورگ.
سال گذشته، وب و تیمی از روانشناسان اخلاقی بررسی کردند که برای ساختن یک «مشاور اخلاقی» مبتنی بر هوش مصنوعی برای استفاده در پزشکی، با الهام از تحقیق قبلی که این ایده را پیشنهاد کرد. وب و همکارانش به این نتیجه رسیدند که برای چنین سیستمهایی ایجاد تعادل در اصول اخلاقی مختلف دشوار خواهد بود و اگر پزشکان و سایر کارکنان به جای فکر کردن در مورد تصمیمات پیچیده، از مهارتزدایی اخلاقی رنج ببرند. .
وب اشاره میکند که قبلاً به پزشکان گفته شده بود که هوش مصنوعی که زبان را پردازش میکند انقلابی در کار آنها ایجاد میکند، اما ناامید میشوند. پس از برنده شدن Jeopardy! در سالهای 2010 و 2011، بخش Watson در IBM به سرطانشناسی روی آورد و ادعاهایی در مورد اثربخشی مبارزه با سرطان با هوش مصنوعی مطرح کرد. اما این راه حل، که در ابتدا یادبود اسلون کترینگ در جعبه نام داشت، در تنظیمات بالینی آنطور که تبلیغات تبلیغاتی نشان می داد موفقیت آمیز نبود، و در سال 2020 IBM پروژه را تعطیل کرد.
زمانی که تبلیغات تبلیغاتی پوچ باشد، ممکن است عواقب ماندگاری داشته باشد. در طول یک پانل بحث در هاروارد در مورد پتانسیل هوش مصنوعی در پزشکی در ماه فوریه، Trishan Panch، پزشک مراقبت های اولیه، به یاد می آورد که پست یکی از همکارانش را در توییتر برای به اشتراک گذاشتن نتایج درخواست ChatGPT برای تشخیص بیماری، بلافاصله پس از انتشار چت بات، به یاد می آورد.
پنچ به یاد می آورد که پزشکان هیجان زده به سرعت با تعهد به استفاده از این فناوری در کارهای خود پاسخ دادند، اما در حدود بیستمین پاسخ، پزشک دیگری آمد و گفت که هر مرجعی که توسط این مدل ایجاد می شود جعلی. پانچ که یکی از بنیانگذاران استارت آپ نرم افزار مراقبت های بهداشتی Wellframe است، می گوید: «فقط یک یا دو مورد از این قبیل برای از بین بردن اعتماد در کل مورد نیاز است.
با وجود اشتباهات گاهی اوقات فاحش هوش مصنوعی، رابرت پرل، سابقاً از Kaiser Permanente، در مورد مدلهای زبانی مانند ChatGPT بسیار خوشبین است. او معتقد است که در سالهای آینده، مدلهای زبانی در مراقبتهای بهداشتی بیشتر شبیه آیفون خواهند شد، پر از ویژگیهاالف> و قدرتی که می تواند پزشکان را تقویت کند و به بیماران در مدیریت بیماری مزمن کمک کند. او حتی مشکوک است که مدلهای زبانی مانند ChatGPT میتوانند به کاهش بیش از 250000 مرگ سالانه در ایالات متحده در نتیجه خطاهای پزشکی رخ می دهد.
Pearl برخی موارد را برای هوش مصنوعی غیرمجاز در نظر می گیرد. او میگوید کمک به افراد برای کنار آمدن با غم و اندوه، گفتگوهای پایان زندگی با خانوادهها و صحبت در مورد روشهایی که خطر عوارض بالایی دارند نباید شامل یک ربات باشد، زیرا نیازهای هر بیمار آنقدر متغیر است که باید آن مکالمات را انجام داد. برای رسیدن به آنجا.
پرل میگوید: «اینها مکالمات انسان به انسان هستند. “اگر اشتباه می کنم، به این دلیل است که سرعت پیشرفت در فناوری را بیش از حد برآورد می کنم. اما هر بار که نگاه میکنم، سریعتر از آن چیزی که فکر میکردم حرکت میکند.”
در حال حاضر، او ChatGPT را به یک دانشجوی پزشکی تشبیه میکند: قادر به ارائه مراقبت به بیماران و ارائه خدمات، اما همه چیز است. باید توسط پزشک معالج بررسی شود.