روح یک سیستم یادگیری ماشینی جدید
سلام، دوستان. جالب است که جلسات استماع کنگره در مورد 6 ژانویه باعث می شود NFL- مخاطبان سبک. منتظر پیتون و نسخه الی!نمای سادهدنیای هوش مصنوعی تکان خورد این هفته توسط گزارش در The که یک مهندس گوگل پس از اصرار بر اینکه سیستم مکالمه ای به نام LaMDA، به معنای واقعی کلمه، یک شخص است، در شرکت با مشکل مواجه شده است. موضوع داستان، بلیک لمواین، از روسای خود خواست که سیستم کامپیوتری را که مهندسانش ایجاد کردهاند تشخیص دهند، یا حداقل در نظر بگیرند که احساس است—و روح دارد. او این را میداند، زیرا LaMDA، که لموئین آن را دوست میداند، به او گفته است.Google با این موضوع مخالف است و Lemoine در حال حاضر در مرخصی اداری با حقوق است. در بیانیهای، برایان گابریل، سخنگوی این شرکت میگوید: «بسیاری از محققان احتمال درازمدت هوش مصنوعی یا هوش مصنوعی عمومی را بررسی میکنند، اما انجام این کار با انسانسازی مدلهای مکالمه امروزی که حساس نیستند، منطقی نیست.انسانسازی – نسبت دادن اشتباهاً ویژگیهای انسانی به یک شی یا حیوان – اصطلاحی است که جامعه هوش مصنوعی برای توصیف رفتار لمواین پذیرفته است و او را بیش از حد ساده لوح یا غیرعادی توصیف میکند. یا شاید یک مهره مذهبی (او خود را یک کشیش مسیحی عارف توصیف می کند). استدلال این است که وقتی با پاسخهای معتبری از مدلهای زبان بزرگ مانند LaMDA یا Open AI’s GPT-3 ماهر کلامی مواجه میشویم، این تمایل وجود دارد که فکر کنیم یکیک، نه فلانچیز آنها را ایجاد کرد. مردم خودروهای خود را نام میبرند و برای حیوانات خانگی خود درمانگر استخدام میکنند، بنابراین تعجب آور نیست که برخی تصور نادرست داشته باشند که یک ربات منسجم مانند یک شخص است. با این حال، جامعه بر این باور است که یک کارمند Google با مدرک علوم کامپیوتر باید بهتر بداند تا اینکه اساساً یک فریبکاری زبانی باشد. همانطور که یکی از دانشمندهای هوش مصنوعی، گری مارکوس، پس از مطالعه متنی از صمیمانه لموئین با همنوع بیجسمش، به من گفت: «این اساساً مانند تکمیل خودکار است. هیچ ایده ای در آنجا وجود ندارد. وقتی میگوید «من خانوادهام و دوستانم را دوست دارم»، نه دوستی دارد، نه مردمی در ذهنش است و نه مفهومی از خویشاوندی. می داند که کلمات پسر و دختر در یک متن به کار می روند. اما این به معنای دانستن اینکه پسر و دختر چیست نیست.» یا همانطور که یک داستان WIRED اخیر بیان میکند، “هیچ جرقهای از آگاهی وجود نداشت، فقط ترفندهای جادویی کوچکی که روی شکاف ها کاغذ می اندازند.”احساسات خودم پیچیده تر هستند. حتی با دانستن اینکه چگونه برخی از سوسیس در این سیستم ها ساخته می شود، من از خروجی سیستم های اخیر LLM مبهوت شدم. و همینطور معاون گوگل، بلیز آگوئرا و آرکاس، که اوایل این ماه در اکونومیست پس از گفتگوی خود با LaMDA نوشت: “من احساس کردم که زمین در زیر من تغییر می کند. پا. به طور فزاینده ای احساس می کردم که دارم با چیزی هوشمندانه صحبت می کنم. حتی اگر گاهی اوقات آنها اشتباهات عجیب و غریب مرتکب می شوند، گاهی اوقات به نظر می رسد که این مدل ها درخشش دارند. نویسندگان انسان خلاق همکاری های الهام گرفته. اینجا چیزی در حال رخ دادن است. بهعنوان یک نویسنده، به این فکر میکنم که آیا ممکن است روزی امثال من – واژهسازهای گوشت و خون که برجهایی از پیش نویسهای دور ریخته را جمع میکنند – به رتبههای پایینتری سقوط کنند، مانند تیمهای فوتبال باخت که به لیگهای کمتر معتبر اعزام شدهاند.سام آلتمن، یکی از بنیانگذاران OpenAI، که GPT-3 و یک ریمیکس گرافیکی به نام DALL-E که ممکن است تعداد زیادی تصویرگر را در صف بیکاری قرار دهید. “شما برای اولین بار از آن سیستم ها استفاده می کنید و می خواهید، وای، من واقعاً فکر نمی کردم یک رایانه بتواند این کار را انجام دهد. طبق برخی از تعریف ها، ما متوجه شده ایم که چگونه یک کامپیوتر بسازیم. برنامه ای هوشمند، قادر به یادگیری و درک مفاهیم. و این یک دستاورد شگفت انگیز از پیشرفت بشر است.» آلتمن زحمت می کشد تا خود را از Lemoine جدا کند و با همکاران هوش مصنوعی خود موافق است که سیستم های فعلی به هیچ وجه نزدیک به احساس نیستند. او میگوید: «اما من معتقدم محققان باید بتوانند درباره هر سؤالی که به آن علاقه دارند فکر کنند. “سوالات طولانی مدت خوب هستند. و احساسات ارزش فکر کردن را در دراز مدت دارد.»
***
منبع : https://www.wired.com