breadcrumbs_delimiter کسب و کار breadcrumbs_delimiter ChatGPT می تواند به پزشکان و آسیب رساندن به بیماران کمک کند
کسب و کار

ChatGPT می تواند به پزشکان و آسیب رساندن به بیماران کمک کند

اردیبهشت 4, 1402 1019

“دانش و شیوه‌های پزشکی در طول زمان تغییر می‌کنند و تکامل می‌یابند، و نمی‌توان گفت که ChatGPT هنگام بیان یک درمان معمولی، اطلاعات خود را از کجا در جدول زمانی پزشکی می‌گیرد.” می گوید. «آیا این اطلاعات جدید هستند یا تاریخ دارند؟»

کاربران همچنین باید مراقب باشند که ربات‌های سبک ChatGPT چگونه می‌توانند اطلاعات ساختگی، یا “توهم” در روی سطحی، اگر فردی پاسخ های الگوریتم را بررسی نکند، احتمالاً منجر به خطاهای جدی می شود. و متن تولید شده توسط هوش مصنوعی می تواند انسان را به روش های ظریف تحت تاثیر قرار دهد. یک مطالعه منتشر شده در ژانویه، که مورد بازبینی همتایان قرار نگرفته بود، و تیزرهای اخلاقی را برای ChatGPT ارائه کرد، به این نتیجه رسید که ربات چت یک مشاور اخلاقی ناسازگار ایجاد می کند که می تواند بر تصمیم گیری انسانی تأثیر بگذارد، حتی زمانی که مردم می دانند که توصیه ها از طریق نرم افزار هوش مصنوعی است.

پزشک بودن چیزی فراتر از بازگرداندن دانش پزشکی دایره المعارفی است. در حالی که بسیاری از پزشکان مشتاق استفاده از ChatGPT برای کارهای کم خطر مانند خلاصه سازی متن هستند، برخی از متخصصان اخلاق زیستی نگران هستند که پزشکان در صورت مواجهه با یک تصمیم اخلاقی سخت مانند اینکه آیا جراحی برای یک بیمار با احتمال کم گزینه مناسبی است یا خیر، برای مشاوره به ربات مراجعه کنند. از بقا یا بهبودی.

«شما نمی توانید این نوع فرآیند را به یک مدل هوش مصنوعی مولد برون سپاری یا خودکارسازی کنید. دانشگاه ادینبورگ.

سال گذشته، وب و تیمی از روانشناسان اخلاقی بررسی کردند که برای ساختن یک «مشاور اخلاقی» مبتنی بر هوش مصنوعی برای استفاده در پزشکی، با الهام از تحقیق قبلی که این ایده را پیشنهاد کرد. وب و همکارانش به این نتیجه رسیدند که برای چنین سیستم‌هایی ایجاد تعادل در اصول اخلاقی مختلف دشوار خواهد بود و اگر پزشکان و سایر کارکنان به جای فکر کردن در مورد تصمیمات پیچیده، از مهارت‌زدایی اخلاقی رنج ببرند. .

وب اشاره می‌کند که قبلاً به پزشکان گفته شده بود که هوش مصنوعی که زبان را پردازش می‌کند انقلابی در کار آنها ایجاد می‌کند، اما ناامید می‌شوند. پس از برنده شدن Jeopardy! در سال‌های 2010 و 2011، بخش Watson در IBM به سرطان‌شناسی روی آورد و ادعاهایی در مورد اثربخشی مبارزه با سرطان با هوش مصنوعی مطرح کرد. اما این راه حل، که در ابتدا یادبود اسلون کترینگ در جعبه نام داشت، در تنظیمات بالینی آنطور که تبلیغات تبلیغاتی نشان می داد موفقیت آمیز نبود، و در سال 2020 IBM پروژه را تعطیل کرد.

زمانی که تبلیغات تبلیغاتی پوچ باشد، ممکن است عواقب ماندگاری داشته باشد. در طول یک پانل بحث در هاروارد در مورد پتانسیل هوش مصنوعی در پزشکی در ماه فوریه، Trishan Panch، پزشک مراقبت های اولیه، به یاد می آورد که پست یکی از همکارانش را در توییتر برای به اشتراک گذاشتن نتایج درخواست ChatGPT برای تشخیص بیماری، بلافاصله پس از انتشار چت بات، به یاد می آورد.

پنچ به یاد می آورد که پزشکان هیجان زده به سرعت با تعهد به استفاده از این فناوری در کارهای خود پاسخ دادند، اما در حدود بیستمین پاسخ، پزشک دیگری آمد و گفت که هر مرجعی که توسط این مدل ایجاد می شود جعلی. پانچ که یکی از بنیانگذاران استارت آپ نرم افزار مراقبت های بهداشتی Wellframe است، می گوید: «فقط یک یا دو مورد از این قبیل برای از بین بردن اعتماد در کل مورد نیاز است.

با وجود اشتباهات گاهی اوقات فاحش هوش مصنوعی، رابرت پرل، سابقاً از Kaiser Permanente، در مورد مدل‌های زبانی مانند ChatGPT بسیار خوش‌بین است. او معتقد است که در سال‌های آینده، مدل‌های زبانی در مراقبت‌های بهداشتی بیشتر شبیه آیفون خواهند شد، پر از ویژگی‌هاالف> و قدرتی که می تواند پزشکان را تقویت کند و به بیماران در مدیریت بیماری مزمن کمک کند. او حتی مشکوک است که مدل‌های زبانی مانند ChatGPT می‌توانند به کاهش بیش از 250000 مرگ سالانه در ایالات متحده در نتیجه خطاهای پزشکی رخ می دهد.

Pearl برخی موارد را برای هوش مصنوعی غیرمجاز در نظر می گیرد. او می‌گوید کمک به افراد برای کنار آمدن با غم و اندوه، گفتگوهای پایان زندگی با خانواده‌ها و صحبت در مورد روش‌هایی که خطر عوارض بالایی دارند نباید شامل یک ربات باشد، زیرا نیازهای هر بیمار آنقدر متغیر است که باید آن مکالمات را انجام داد. برای رسیدن به آنجا.

پرل می‌گوید: «اینها مکالمات انسان به انسان هستند. “اگر اشتباه می کنم، به این دلیل است که سرعت پیشرفت در فناوری را بیش از حد برآورد می کنم. اما هر بار که نگاه می‌کنم، سریع‌تر از آن چیزی که فکر می‌کردم حرکت می‌کند.”

در حال حاضر، او ChatGPT را به یک دانشجوی پزشکی تشبیه می‌کند: قادر به ارائه مراقبت به بیماران و ارائه خدمات، اما همه چیز است. باید توسط پزشک معالج بررسی شود.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×