استفاده بیرویه از یادگیری ماشینی باعث ایجاد «بحران تکرارپذیری» در علم میشود
اما کاپور و نارایانان هشدار میدهند که تأثیر هوش مصنوعی بر تحقیقات علمی در بسیاری از موارد کمتر از ستارهای بوده است. زمانی که این زوج حوزههایی از علم را که یادگیری ماشینی در آنها به کار میرفت بررسی کردند، دریافتند که محققان دیگر خطاهایی را در 329 مطالعه که بر یادگیری ماشین تکیه داشتند، در طیف وسیعی از زمینهها شناسایی کردهاند.
کاپور میگوید: که بسیاری از محققان بدون درک جامع از تکنیک ها و محدودیت های آن برای استفاده از یادگیری ماشین عجله دارند. همکاری با این فناوری بسیار آسانتر شده است، تا حدی به این دلیل که صنعت فناوری برای ارائه ابزارها و آموزشهای هوش مصنوعی عجله کرده است طراحی شده برای جذب تازه واردان، اغلب با هدف تبلیغ پلتفرمها و سرویسهای ابری. کاپور میگوید: «این ایده که میتوانید یک دوره آنلاین چهار ساعته بگذرانید و سپس از یادگیری ماشینی در تحقیقات علمی خود استفاده کنید، بسیار مبهم شده است. “مردم در مورد اینکه کجا ممکن است اشتباه پیش برود متوقف نشده اند.”
هیجان در مورد پتانسیل هوش مصنوعی باعث شده است که برخی از دانشمندان روی استفاده از آن در تحقیقات شرط بندی کنند. تونیو بووناسیسی، استاد دانشگاه MIT که در مورد سلولهای خورشیدی جدید تحقیق میکند، از هوش مصنوعی به طور گسترده برای کشف مواد جدید استفاده میکند. . او می گوید که اگرچه اشتباه کردن آسان است، اما یادگیری ماشین ابزار قدرتمندی است که نباید آن را رها کرد. او میگوید اگر دانشمندان رشتههای مختلف بهترین شیوهها را توسعه دهند و به اشتراک بگذارند، اغلب میتوان خطاها را برطرف کرد. او میگوید: «برای انجام درست این کارها لازم نیست یک متخصص یادگیری ماشینی حمل کارت باشید.
کاپور و نارایانان کارگاهی در اواخر ماه گذشته برگزار شد تا توجه را به آنچه که آنها “بحران تکرارپذیری” مینامند در علم که از یادگیری ماشینی استفاده میکند، جلب کند. آنها امیدوار بودند حدود 30 شرکت کننده داشته باشند، اما از بیش از 1500 نفر ثبت نام دریافت کردند، شگفتی که به گفته آنها نشان می دهد مشکلات یادگیری ماشینی در علم گسترده است.
در طول این رویداد، سخنرانان دعوت شده بازگو کردند. نمونههای متعددی از موقعیتهایی که هوش مصنوعی در زمینههایی از جمله پزشکی و علوم اجتماعی مورد سوء استفاده قرار گرفته است. مایکل رابرتز، همکار ارشد تحقیقاتی در دانشگاه کمبریج، مشکلاتی را با ده ها مقاله که ادعا می کنند از یادگیری ماشینی برای مبارزه با کووید-19 استفاده می کنند، بحث کرد، از جمله مواردی که داده ها منحرف شده بودند، زیرا از آن ناشی می شد. انواع ماشین های تصویربرداری مختلف جسیکا هالمن، دانشیار دانشگاه نورث وسترن، مشکلات مربوط به مطالعات با استفاده از یادگیری ماشینی را با پدیده نتایج عمده در روانشناسی مقایسه کرد تکرار کردن غیرممکن است. هالمن میگوید در هر دو مورد، محققان مستعد استفاده از دادههای بسیار کم و اشتباه خواندن اهمیت آماری نتایج هستند.
مومین مالیک، دانشمند داده در کلینیک مایو، دعوت شد تا در مورد کار خود برای ردیابی استفاده های مشکل ساز صحبت کند. یادگیری ماشین در علم او میگوید علاوه بر خطاهای رایج در اجرای این تکنیک، محققان گاهی اوقات یادگیری ماشین را زمانی که ابزار اشتباهی برای کار است، به کار میبرند.
مالک به مثال برجستهای از یادگیری ماشینی اشاره میکند که باعث گمراهکننده میشود. نتایج: Google Flu Trends، ابزاری که توسط شرکت جستجو ایجاد شده است در سال 2008 که هدف آن استفاده از یادگیری ماشینی برای شناسایی سریعتر شیوع آنفولانزا از طریق گزارشهای جستجوی جستجوی تایپ شده توسط کاربران وب بود. گوگل تبلیغات مثبتی برای این پروژه به دست آورد، اما به طرز چشمگیری شکست خورد برای پیش بینی روند فصل آنفولانزای 2013. یک مطالعه مستقل بعداً به این نتیجه رسید که این مدل به اصطلاحات فصلی متصل شده است که هیچ ارتباطی با شیوع ندارند آنفولانزا مالک میگوید: «شما نمیتوانید همه آن را در یک مدل بزرگ یادگیری ماشینی بیندازید و ببینید چه چیزی بیرون میآید.
***
منبع : https://www.wired.com