breadcrumbs_delimiter کسب و کار breadcrumbs_delimiter برخی از Glimpse AGI در ChatGPT. دیگران به آن سراب می گویند
کسب و کار

برخی از Glimpse AGI در ChatGPT. دیگران به آن سراب می گویند

فروردین 29, 1402 1027

سباستین بابک، یک محقق یادگیری ماشین در مایکروسافت، سپتامبر گذشته یک شب از خواب بیدار شد و به هوش مصنوعیفکر کرد. >—و تک شاخ.

Bubeck اخیراً به GPT-4، یک الگوریتم قدرتمند تولید متن از OpenAI و ارتقای مدل یادگیری ماشینی در قلب ربات چت بسیار محبوب ChatGPT. Bubeck بخشی از تیمی بود که برای ادغام سیستم هوش مصنوعی جدید در موتور جستجوی Bing مایکروسافت کار می کرد. اما او و همکارانش از اینکه چقدر GPT-4 با هر چیزی که قبلا دیده بودند متفاوت به نظر می رسید تعجب می کردند.

GPT-4، مانند پیشینیان خود، به مقدار زیادی متن و کد تغذیه شده بود و برای استفاده آموزش دیده بود. الگوهای آماری موجود در آن مجموعه برای پیش بینی کلماتی که باید در پاسخ به یک قطعه از ورودی متن تولید شوند. اما به نظر بابک، خروجی سیستم بسیار بیشتر از حدس زدن آماری قابل قبول بود.

آن شب، بابک از جایش بلند شد، به سراغ رایانه اش رفت و از GPT-4 خواست تا یک تکشاخ با استفاده از TikZ، یک زبان برنامه نویسی نسبتا مبهم برای تولید نمودارهای علمی . Bubeck از نسخه‌ای از GPT-4 استفاده می‌کرد که فقط با متن کار می‌کرد، نه تصاویر. اما کدی که مدل به او ارائه کرد، وقتی در نرم افزار رندر TikZ وارد شد، تصویری خام و در عین حال کاملاً تک شاخ ایجاد کرد که از بیضی ها، مستطیل ها و یک مثلث به هم چسبیده بود. برای بابک، چنین شاهکاری مطمئناً مستلزم درک انتزاعی عناصر چنین موجودی بود. او می‌گوید: «چیز جدیدی در اینجا در حال رخ دادن است. “شاید برای اولین بار چیزی داشته باشیم که بتوانیم آن را هوش بنامیم.”

هوش مصنوعی چقدر در حال تبدیل شدن به هوشمند است — و چقدر باید به این احساس رایج‌تر اعتماد کرد. این که یک نرم افزار هوشمند است – به یک سوال مبرم و تقریباً وحشت آفرین تبدیل شده است.

بعد از OpenAI ChatGPT منتشر شد، سپس توسط GPT-3 در نوامبر گذشته ارائه شد، و جهان را با توانایی خود در نوشتن شعر و نثر بر روی طیف گسترده ای از موضوعات، حل مشکلات کدگذاری و ترکیب دانش از وب شگفت زده کرد. . اما حیرت با شوک و نگرانی در مورد احتمال تقلب علمی، اطلاعات غلط و بیکاری انبوه—و بیم آن می رود که شرکت هایی مانند مایکروسافت عجله دارند تکنولوژی را توسعه دهید که می تواند خطرناک باشد.

درک پتانسیل یا خطرات توانایی‌های جدید هوش مصنوعی به معنای درک روشنی از این است که آن توانایی‌ها چیستند و نیستند. اما در حالی که توافق گسترده‌ای وجود دارد که ChatGPT و سیستم‌های مشابه به رایانه‌ها مهارت‌های جدید قابل توجهی می‌دهند، محققان تازه شروع به مطالعه این رفتارها کرده‌اند و مشخص می‌کنند که در پشت این درخواست چه می‌گذرد.

در حالی که OpenAI GPT-4 را با تبلیغ عملکرد آن در امتحانات وکالت و پزشکی ارتقاء داده است، دانشمندانی که جنبه‌های هوش انسانی را مطالعه می‌کنند می‌گویند که قابلیت‌های قابل توجه آن از جنبه‌های مهم با ما متفاوت است. تمایل مدل ها به ساختن چیزها به خوبی شناخته شده است، اما واگرایی عمیق تر است. و با توجه به اینکه میلیون‌ها نفر از این فناوری هر روز استفاده می‌کنند و شرکت‌هایی که آینده خود را روی آن شرط‌بندی می‌کنند، این راز بسیار مهمی است.

جرقه‌های اختلاف نظر

بوبک و سایر محققان هوش مصنوعی در مایکروسافت از تجربیات خود در مورد GPT-4 الهام گرفتند تا وارد بحث شوند. چند هفته پس از وصل شدن سیستم به Bing و راه اندازی ویژگی جدید چت آن، این شرکت مقاله‌ای منتشر کرد که ادعا می‌کرد در آزمایش‌های اولیه، GPT-4 “جرقه‌های هوش مصنوعی عمومی” را نشان داد.

نویسندگان ارائه کردند. پراکندگی نمونه هایی که در آن سیستم وظایفی را انجام می دهد که به نظر می رسد هوش عمومی تری را منعکس می کند، بطور قابل توجهی فراتر از سیستم های قبلی مانند GPT-3. مثال‌ها نشان می‌دهند که برخلاف بسیاری از برنامه‌های قبلی هوش مصنوعی، GPT-4 به یک کار خاص محدود نمی‌شود، بلکه می‌تواند دست خود را به انواع مشکلات معطوف کند – یک کیفیت ضروری از هوش عمومی.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×