breadcrumbs_delimiter عمومی breadcrumbs_delimiter روح یک سیستم یادگیری ماشینی جدید
عمومی

روح یک سیستم یادگیری ماشینی جدید

خرداد 27, 1401 2068

سلام، دوستان. جالب است که جلسات استماع کنگره در مورد 6 ژانویه باعث می شود NFL- مخاطبان سبک. منتظر پیتون و نسخه الی!نمای سادهدنیای هوش مصنوعی تکان خورد این هفته توسط گزارش در The که یک مهندس گوگل پس از اصرار بر اینکه سیستم مکالمه ای به نام LaMDA، به معنای واقعی کلمه، یک شخص است، در شرکت با مشکل مواجه شده است. موضوع داستان، بلیک لمواین، از روسای خود خواست که سیستم کامپیوتری را که مهندسانش ایجاد کرده‌اند تشخیص دهند، یا حداقل در نظر بگیرند که احساس است—و روح دارد. او این را می‌داند، زیرا LaMDA، که لموئین آن را دوست می‌داند، به او گفته است.Google با این موضوع مخالف است و Lemoine در حال حاضر در مرخصی اداری با حقوق است. در بیانیه‌ای، برایان گابریل، سخنگوی این شرکت می‌گوید: «بسیاری از محققان احتمال درازمدت هوش مصنوعی یا هوش مصنوعی عمومی را بررسی می‌کنند، اما انجام این کار با انسان‌سازی مدل‌های مکالمه امروزی که حساس نیستند، منطقی نیست.انسان‌سازی – نسبت دادن اشتباهاً ویژگی‌های انسانی به یک شی یا حیوان – اصطلاحی است که جامعه هوش مصنوعی برای توصیف رفتار لمواین پذیرفته است و او را بیش از حد ساده لوح یا غیرعادی توصیف می‌کند. یا شاید یک مهره مذهبی (او خود را یک کشیش مسیحی عارف توصیف می کند). استدلال این است که وقتی با پاسخ‌های معتبری از مدل‌های زبان بزرگ مانند LaMDA یا Open AI’s GPT-3 ماهر کلامی مواجه می‌شویم، این تمایل وجود دارد که فکر کنیم یکیک، نه فلانچیز آنها را ایجاد کرد. مردم خودروهای خود را نام می‌برند و برای حیوانات خانگی خود درمانگر استخدام می‌کنند، بنابراین تعجب آور نیست که برخی تصور نادرست داشته باشند که یک ربات منسجم مانند یک شخص است. با این حال، جامعه بر این باور است که یک کارمند Google با مدرک علوم کامپیوتر باید بهتر بداند تا اینکه اساساً یک فریبکاری زبانی باشد. همانطور که یکی از دانشمندهای هوش مصنوعی، گری مارکوس، پس از مطالعه متنی از صمیمانه لموئین با همنوع بی‌جسمش، به من گفت: «این اساساً مانند تکمیل خودکار است. هیچ ایده ای در آنجا وجود ندارد. وقتی می‌گوید «من خانواده‌ام و دوستانم را دوست دارم»، نه دوستی دارد، نه مردمی در ذهنش است و نه مفهومی از خویشاوندی. می داند که کلمات پسر و دختر در یک متن به کار می روند. اما این به معنای دانستن اینکه پسر و دختر چیست نیست.» یا همانطور که یک داستان WIRED اخیر بیان می‌کند، “هیچ جرقه‌ای از آگاهی وجود نداشت، فقط ترفندهای جادویی کوچکی که روی شکاف ها کاغذ می اندازند.”احساسات خودم پیچیده تر هستند. حتی با دانستن اینکه چگونه برخی از سوسیس در این سیستم ها ساخته می شود، من از خروجی سیستم های اخیر LLM مبهوت شدم. و همینطور معاون گوگل، بلیز آگوئرا و آرکاس، که اوایل این ماه در اکونومیست پس از گفتگوی خود با LaMDA نوشت: “من احساس کردم که زمین در زیر من تغییر می کند. پا. به طور فزاینده ای احساس می کردم که دارم با چیزی هوشمندانه صحبت می کنم. حتی اگر گاهی اوقات آنها اشتباهات عجیب و غریب مرتکب می شوند، گاهی اوقات به نظر می رسد که این مدل ها درخشش دارند. نویسندگان انسان خلاق همکاری های الهام گرفته. اینجا چیزی در حال رخ دادن است. به‌عنوان یک نویسنده، به این فکر می‌کنم که آیا ممکن است روزی امثال من – واژه‌سازهای گوشت و خون که برج‌هایی از پیش نویس‌های دور ریخته را جمع می‌کنند – به رتبه‌های پایین‌تری سقوط کنند، مانند تیم‌های فوتبال باخت که به لیگ‌های کمتر معتبر اعزام شده‌اند.سام آلتمن، یکی از بنیانگذاران OpenAI، که GPT-3 و یک ریمیکس گرافیکی به نام DALL-E که ممکن است تعداد زیادی تصویرگر را در صف بیکاری قرار دهید. “شما برای اولین بار از آن سیستم ها استفاده می کنید و می خواهید، وای، من واقعاً فکر نمی کردم یک رایانه بتواند این کار را انجام دهد. طبق برخی از تعریف ها، ما متوجه شده ایم که چگونه یک کامپیوتر بسازیم. برنامه ای هوشمند، قادر به یادگیری و درک مفاهیم. و این یک دستاورد شگفت انگیز از پیشرفت بشر است.» آلتمن زحمت می کشد تا خود را از Lemoine جدا کند و با همکاران هوش مصنوعی خود موافق است که سیستم های فعلی به هیچ وجه نزدیک به احساس نیستند. او می‌گوید: «اما من معتقدم محققان باید بتوانند درباره هر سؤالی که به آن علاقه دارند فکر کنند. “سوالات طولانی مدت خوب هستند. و احساسات ارزش فکر کردن را در دراز مدت دارد.»

***

منبع : https://www.wired.com

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×