breadcrumbs_delimiter هوش مصنوعی breadcrumbs_delimiter استفاده بی‌رویه از یادگیری ماشینی باعث ایجاد «بحران تکرارپذیری» در علم می‌شود
هوش مصنوعی

استفاده بی‌رویه از یادگیری ماشینی باعث ایجاد «بحران تکرارپذیری» در علم می‌شود

مرداد 19, 1401 3070

اما کاپور و نارایانان هشدار می‌دهند که تأثیر هوش مصنوعی بر تحقیقات علمی در بسیاری از موارد کمتر از ستاره‌ای بوده است. زمانی که این زوج حوزه‌هایی از علم را که یادگیری ماشینی در آن‌ها به کار می‌رفت بررسی کردند، دریافتند که محققان دیگر خطاهایی را در 329 مطالعه که بر یادگیری ماشین تکیه داشتند، در طیف وسیعی از زمینه‌ها شناسایی کرده‌اند.

کاپور می‌گوید: که بسیاری از محققان بدون درک جامع از تکنیک ها و محدودیت های آن برای استفاده از یادگیری ماشین عجله دارند. همکاری با این فناوری بسیار آسان‌تر شده است، تا حدی به این دلیل که صنعت فناوری برای ارائه ابزارها و آموزش‌های هوش مصنوعی عجله کرده است طراحی شده برای جذب تازه واردان، اغلب با هدف تبلیغ پلتفرم‌ها و سرویس‌های ابری. کاپور می‌گوید: «این ایده که می‌توانید یک دوره آنلاین چهار ساعته بگذرانید و سپس از یادگیری ماشینی در تحقیقات علمی خود استفاده کنید، بسیار مبهم شده است. “مردم در مورد اینکه کجا ممکن است اشتباه پیش برود متوقف نشده اند.”

هیجان در مورد پتانسیل هوش مصنوعی باعث شده است که برخی از دانشمندان روی استفاده از آن در تحقیقات شرط بندی کنند. تونیو بووناسیسی، استاد دانشگاه MIT که در مورد سلول‌های خورشیدی جدید تحقیق می‌کند، از هوش مصنوعی به طور گسترده برای کشف مواد جدید استفاده می‌کند. . او می گوید که اگرچه اشتباه کردن آسان است، اما یادگیری ماشین ابزار قدرتمندی است که نباید آن را رها کرد. او می‌گوید اگر دانشمندان رشته‌های مختلف بهترین شیوه‌ها را توسعه دهند و به اشتراک بگذارند، اغلب می‌توان خطاها را برطرف کرد. او می‌گوید: «برای انجام درست این کارها لازم نیست یک متخصص یادگیری ماشینی حمل کارت باشید.

کاپور و نارایانان کارگاهی در اواخر ماه گذشته برگزار شد تا توجه را به آنچه که آنها “بحران تکرارپذیری” می‌نامند در علم که از یادگیری ماشینی استفاده می‌کند، جلب کند. آنها امیدوار بودند حدود 30 شرکت کننده داشته باشند، اما از بیش از 1500 نفر ثبت نام دریافت کردند، شگفتی که به گفته آنها نشان می دهد مشکلات یادگیری ماشینی در علم گسترده است.

در طول این رویداد، سخنرانان دعوت شده بازگو کردند. نمونه‌های متعددی از موقعیت‌هایی که هوش مصنوعی در زمینه‌هایی از جمله پزشکی و علوم اجتماعی مورد سوء استفاده قرار گرفته است. مایکل رابرتز، همکار ارشد تحقیقاتی در دانشگاه کمبریج، مشکلاتی را با ده ها مقاله که ادعا می کنند از یادگیری ماشینی برای مبارزه با کووید-19 استفاده می کنند، بحث کرد، از جمله مواردی که داده ها منحرف شده بودند، زیرا از آن ناشی می شد. انواع ماشین های تصویربرداری مختلف جسیکا هالمن، دانشیار دانشگاه نورث وسترن، مشکلات مربوط به مطالعات با استفاده از یادگیری ماشینی را با پدیده نتایج عمده در روانشناسی مقایسه کرد تکرار کردن غیرممکن است. هالمن می‌گوید در هر دو مورد، محققان مستعد استفاده از داده‌های بسیار کم و اشتباه خواندن اهمیت آماری نتایج هستند.

مومین مالیک، دانشمند داده در کلینیک مایو، دعوت شد تا در مورد کار خود برای ردیابی استفاده های مشکل ساز صحبت کند. یادگیری ماشین در علم او می‌گوید علاوه بر خطاهای رایج در اجرای این تکنیک، محققان گاهی اوقات یادگیری ماشین را زمانی که ابزار اشتباهی برای کار است، به کار می‌برند.

مالک به مثال برجسته‌ای از یادگیری ماشینی اشاره می‌کند که باعث گمراه‌کننده می‌شود. نتایج: Google Flu Trends، ابزاری که توسط شرکت جستجو ایجاد شده است در سال 2008 که هدف آن استفاده از یادگیری ماشینی برای شناسایی سریع‌تر شیوع آنفولانزا از طریق گزارش‌های جستجوی جستجوی تایپ شده توسط کاربران وب بود. گوگل تبلیغات مثبتی برای این پروژه به دست آورد، اما به طرز چشمگیری شکست خورد برای پیش بینی روند فصل آنفولانزای 2013. یک مطالعه مستقل بعداً به این نتیجه رسید که این مدل به اصطلاحات فصلی متصل شده است که هیچ ارتباطی با شیوع ندارند آنفولانزا مالک می‌گوید: «شما نمی‌توانید همه آن را در یک مدل بزرگ یادگیری ماشینی بیندازید و ببینید چه چیزی بیرون می‌آید.

***

منبع : https://www.wired.com

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×