breadcrumbs_delimiter هوش مصنوعی breadcrumbs_delimiter LocalAI: جایگزینی برای REST API OpenAI
هوش مصنوعی

LocalAI: جایگزینی برای REST API OpenAI

اردیبهشت 27, 1402 0018

LocalAI یک API جایگزین REST برای استنتاج محلی است که با الزامات OpenAI API سازگار است. این مدل‌ها را قادر می‌سازد تا با استفاده از سخت‌افزار درجه مصرف‌کننده به‌صورت محلی یا به‌صورت پیش‌فرض اجرا شوند و از خانواده‌های مدل‌های مختلفی که با قالب ggml سازگار هستند، پشتیبانی می‌کند.

LocalAI: جایگزینی برای REST API OpenAI

LocalAI یک API جایگزین REST برای استنتاج محلی است که با الزامات OpenAI API سازگار است. این مدل‌ها را قادر می‌سازد تا با استفاده از سخت‌افزار درجه مصرف‌کننده به‌صورت محلی یا به‌صورت پیش‌فرض اجرا شوند و از خانواده‌های مدل‌های مختلفی که با قالب ggml سازگار هستند، پشتیبانی می‌کند.

LocalAI

هوش مصنوعی محلی هنوز در مراحل اولیه خود است، اما این پتانسیل را دارد که ابزار مفیدی برای توسعه دهندگان و محققانی باشد که نیاز به اجرای مدل های هوش مصنوعی به صورت محلی دارند.

استفاده

LocalAI به‌طور پیش‌فرض به‌عنوان تصویر ظرف می‌آید.

ساده ترین روش برای شروع LocalAI استفاده از docker-compose است:


git clone https://github.com/go-skynet/LocalAI

سی دی LocalAI

# (اختیاری) یک تگ LocalAI خاص را بررسی کنید
# git checkout -b build 

# مدل های خود را در مدل ها کپی کنید/
cp your-model.bin models/

# (اختیاری) فایل .env را برای تنظیم مواردی مانند اندازه زمینه و رشته ها ویرایش کنید
# vim .env

# با docker-compose شروع کنید
docker-compose up -d -- همیشه بکش
# یا می توانید تصاویر را با:
# docker-compose up -d --build

# اکنون API در localhost:8080 قابل دسترسی است
حلقه http://localhost:8080/v1/models
# {"object":"list"،"data":[{"id":"your-model.bin"،"object":"model"}]}

curl http://localhost:8080/v1/completions -H "Content-Type: application/json" -d '{
     "model": "your-model.bin"،
     "اعلان": "خیلی وقت پیش در کهکشانی بسیار دور"،
     "دما": 0.7
   }'

Docker

نمونه ای از راه اندازی API با ‘docker’:

docker run -p 8080:8080 -ti --rm quay.io/go-skynet/local-ai :latest --models-path /path/to/models --context-size 700 --threads 4

ساخت محلی:

برای ساختن تصویر کانتینر هوش مصنوعی محلی می‌توانید از docker استفاده کنید:

# تصویر را بسازید
docker build -t LocalAI .
Docker LocalAI

را اجرا می کند

یا می‌توانید باینری با make بسازید:

ساخت ساخت

ساخت بر روی مک

ساخت بر روی Mac (M1 یا M2) کار می کند، اما ممکن است لازم باشد برخی از پیش نیازها را با استفاده از brew نصب کنید.

موارد زیر توسط یک کاربر mac آزمایش شده و کار می کند. توجه داشته باشید که این از docker برای اجرای سرور استفاده نمی کند:

# وابستگی ساخت نصب
دم نصب cmake
دم نصب برو

# مخزن را شبیه سازی کنید
git clone https://github.com/go-skynet/LocalAI.git

سی دی LocalAI

# باینری را بسازید
ساختن

# دانلود gpt4all-j در مدل ها/
wget https://gpt4all.io/models/ggml-gpt4all-j.bin -O models/ggml-gpt4all-j

# از یک الگو از نمونه ها استفاده کنید
cp -rf prompt-templates/ggml-gpt4all-j.tmpl models/

# LocalAI را اجرا کنید
./local-ai --models-path ./models/ --debug

# اکنون API در localhost:8080 قابل دسترسی است
حلقه http://localhost:8080/v1/models

curl http://localhost:8080/v1/chat/completions -H "Content-Type: application/json" -d '{
     "model": "ggml-gpt4all-j"،
     "messages": [{"role": "user"، "content": "حالت چطوره؟"}]،
     "دما": 0.9
   }'

LocalAI را در Kubernetes اجرا کنید

LocalAI را می توان در داخل Kubernetes با فرمان نصب کرد.

افزودن مخزن فرمان:

هلم ریپو افزودن go-skynet https://go-skynet.github.io/helm-charts/

یک فایل values.yaml با تنظیمات خود ایجاد کنید:

استقرار:
  تصویر: quay.io/go-skynet/local-ai:latest
  env:
    موضوعات: 4
    حجم متن: 1024
    modelsPath: "/models"
# به صورت اختیاری یک PVC ایجاد کنید، PV را روی LocalAI Deployment نصب کنید،
# و یک مدل را دانلود کنید تا فهرست مدل ها از قبل پر شود
حجم مدلها:
  فعال: درست است
  آدرس اینترنتی: "https://gpt4all.io/models/ggml-gpt4all-j.bin"
  پی وی سی:
    اندازه: 6Gi
    حالت های دسترسی:
    - ReadWriteOnce
  اعتبار:
    # مقدار اختیاری برای هدر احراز هویت دسترسی اولیه HTTP
    پایه: "" # 'username:password' base64 کدگذاری شده است
سرویس:
  نوع: ClusterIP
  حاشیه نویسی: {}
  # در صورت استفاده از متعادل‌کننده بار AWS، باید مهلت زمانی بی‌حرکتی پیش‌فرض متعادل‌کننده بار 60s را لغو کنید.
  # service.beta.kubernetes.io/aws-load-balancer-connection-idle-timeout: "1200"

نصب نمودار فرمان:

به‌روزرسانی مخزن هلم
فرمان نصب local-ai go-skynet/local-ai -f values.yaml

مزایای استفاده از هوش مصنوعی محلی

  • کاهش تأخیر: با حذف نیاز به درخواست‌ها در سرور دور، هوش مصنوعی محلی می‌تواند تأخیر را به حداقل برساند. این به ویژه برای برنامه‌هایی که نیاز به واکنش‌های بی‌درنگ دارند، مانند بازی و روباتیک مفید است.
  • بهبود حریم خصوصی: با ذخیره داده ها در دستگاه محلی، هوش مصنوعی محلی می تواند حریم خصوصی را افزایش دهد. این به ویژه برای برنامه‌هایی که با داده‌های حساس سروکار دارند، مانند مراقبت‌های بهداشتی و بانکداری مفید است.
  • صرفه جویی در پول: با حذف نیاز به پرداخت برای منابع رایانش ابری، هوش مصنوعی محلی می تواند در هزینه صرفه جویی کند. این به ویژه برای برنامه‌هایی مفید است که فقط گاهی اوقات استفاده می‌شوند یا نیاز به تجزیه و تحلیل داده‌های کوچک دارند.

اگر می خواهید مدل های هوش مصنوعی را به صورت محلی اجرا کنید، هوش مصنوعی محلی یک انتخاب عالی است. این ابزار مفیدی برای بهبود عملکرد، امنیت و مقرون به صرفه بودن برنامه های شما است.

همچنین e2b: توسعه دهنده نرم افزار مجازی خود را ایجاد کنید با استفاده از هوش مصنوعی.

ویژگی های LocalAI

  • استفاده ساده: استفاده از LocalAI ساده است، حتی برای تازه کارها. مستندات ساده و مختصر هستند و یک جامعه کاربر قوی مشتاق کمک هستند.
  • قدرتمند:  LocalAI یک ابزار بسیار قوی است که ممکن است برای ایجاد برنامه‌های کاربردی پیچیده هوش مصنوعی استفاده شود. هنوز در حال کار است، اما این پتانسیل را دارد که روش ساخت هوش مصنوعی را تغییر دهد.
  • انعطاف پذیر:  هوش مصنوعی محلی قابل انطباق است و می توان از آن برای ساخت برنامه های هوش مصنوعی در طیف گسترده ای از زبان ها و چارچوب ها استفاده کرد.

اگر به یک ابزار قوی و سازگار برای اجرای مدل‌های هوش مصنوعی به صورت محلی نیاز دارید، هوش مصنوعی محلی انتخابی عالی است. استفاده از آن ساده است و تعداد زیادی کاربر دارد که مشتاق کمک هستند.

این مقاله برای کمک به یادگیری هوش مصنوعی محلی است. ما اطمینان داریم که برای شما مفید بوده است. لطفاً نظرات و انتقادات خود را در بخش نظرات زیر به اشتراک بگذارید.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×