breadcrumbs_delimiter کسب و کار breadcrumbs_delimiter ChatGPT و سایر LLM ها چگونه کار می کنند – و بعد کجا می توانند بروند
کسب و کار

ChatGPT و سایر LLM ها چگونه کار می کنند – و بعد کجا می توانند بروند

اردیبهشت 10, 1402 006

چت ربات های مجهز به هوش مصنوعی مانند مانند ChatGPT و Google Bard مطمئناً دارند یک لحظه—نسل بعدی ابزارهای نرم‌افزار مکالمه‌ای وعده می‌دهند که همه چیز را از در اختیار گرفتن جستجوهای وب ما گرفته تا تولید منابع بی‌پایان ادبیات خلاقانه تا به خاطر سپردن تمام دانش جهان انجام دهند تا مجبور نباشیم.

ChatGPT، Google Bard، و سایر ربات‌های مشابه آنها، نمونه‌هایی از مدل‌های زبان بزرگ یا LLM، و ارزش بررسی نحوه عملکرد آنها را دارد. این بدان معناست که می‌توانید بهتر از آن‌ها استفاده کنید، و درک بهتری از آنچه در آن‌ها خوب هستند (و آنچه واقعاً نباید به آن‌ها اعتماد کرد) داشته باشید.

مانند بسیاری از سیستم‌های هوش مصنوعی – مانند سیستم‌هایی که برای تشخیص صدای شما یا تولید عکس‌های گربه طراحی شده‌اند، LLM‌ها بر روی حجم عظیمی از داده‌ها آموزش می‌بینند. شرکت‌هایی که پشت سر آن‌ها هستند، در مورد افشای اینکه دقیقاً از کجا این داده‌ها می‌آیند، بسیار محتاط بوده‌اند، اما سرنخ‌های خاصی وجود دارد که می‌توانیم به آنها نگاه کنیم.

به عنوان مثال، مقاله تحقیقاتی معرفی LaMDA (مدل زبانی برای گفتگو) برنامه‌ها) مدلی که Bard بر اساس آن ساخته شده است، ویکی‌پدیا، «تالارهای عمومی» و «اسناد کد از سایت‌های مرتبط با برنامه‌نویسی مانند سایت‌های پرسش و پاسخ، آموزش‌ها و غیره» را ذکر می‌کند. در همین حال، Reddit می‌خواهد برای دسترسی به مکالمات متنی 18 ساله خود، شارژ را شروع کند و StackOverflow به تازگی اعلام کرد قصد دارد شارژ را نیز آغاز کند. مفهوم اینجا این است که LLM ها تا این لحظه از هر دو سایت به عنوان منبع، کاملاً رایگان و به پشتوانه افرادی که آن منابع را ساخته و استفاده کرده اند، استفاده گسترده ای کرده اند. واضح است که بسیاری از مواردی که در وب به صورت عمومی در دسترس است توسط LLM ها خراشیده و تجزیه و تحلیل شده است.

ترکیبی از یادگیری ماشین و استفاده از MLL ورودی انسانی.
OpenAI از طریق دیوید نیلد

همه این داده‌های متنی، از هر کجا که آمده باشند، از طریق یک شبکه عصبی پردازش می‌شوند، نوعی موتور هوش مصنوعی که از چندین گره و لایه تشکیل شده است. این شبکه ها به طور مستمر نحوه تفسیر و درک داده ها را بر اساس مجموعه ای از عوامل، از جمله نتایج آزمون و خطای قبلی، تنظیم می کنند. اکثر LLM ها از معماری شبکه عصبی خاصی استفاده می کنند به نام یک ترانسفورماتور، که دارای برخی ترفندها به ویژه برای پردازش زبان است. (GPT بعد از Chat مخفف Generative Pretrained Transformer است.)

به طور خاص، یک ترانسفورماتور می تواند مقادیر زیادی متن را بخواند، الگوهایی را در نحوه ارتباط کلمات و عبارات با یکدیگر مشخص کند و سپس بسازد. پیش بینی در مورد کلمات بعدی شاید شنیده باشید که LLM ها با موتورهای تصحیح خودکار سوپرشارژ مقایسه می شوند، و این در واقع خیلی دور از انتظار نیست: ChatGPT و Bard واقعاً چیزی نمی دانند، اما در تشخیص اینکه کدام کلمه به دنبال کلمه دیگری می آید بسیار خوب هستند. زمانی که به یک مرحله به اندازه کافی پیشرفته می رسد مانند فکر و خلاقیت واقعی به نظر می رسد.

یکی از نوآوری های کلیدی این ترانسفورماتورها مکانیسم توجه به خود است. توضیح آن در یک پاراگراف دشوار است، اما در اصل به این معنی است که کلمات در یک جمله به صورت مجزا در نظر گرفته نمی‌شوند، بلکه در ارتباط با یکدیگر به روش‌های مختلف پیچیده هستند. این اجازه می دهد تا سطح بیشتری از درک را نسبت به آنچه که در غیر این صورت ممکن بود. هر بار چت بات ترانسفورماتور. این ایده تصحیح خودکار همچنین توضیح می‌دهد که چگونه خطاها می‌توانند وارد شوند. در سطح اساسی، ChatGPT و Google Bard نمی‌دانند چه چیزی دقیق است و چه چیزی نیست. آنها به دنبال پاسخ هایی هستند که قابل قبول و طبیعی به نظر می رسند و با داده هایی که بر روی آنها آموزش دیده اند مطابقت دارند.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×