Document ChatX (Dev)
Document Developer ChatX
Document Developer ChatX
  • I. THIẾT LẬP CƠ BẢN
    • Tạo ứng dụng ChatX
      • Bắt đầu nhanh
      • Tổng quan
      • Tạo AI Bot
        • Agent Assistant
        • Chatbot
        • Máy tạo văn bản
      • Câu hỏi thường gặp
      • Trường hợp sử dụng
        • Trợ lý Notion AI dựa trên ghi chú của riêng bạn
        • ChatBot AI với dữ liệu doanh nghiệp
        • Bot Yêu Cầu Giữa Hành Trình
    • Phát hành ứng dụng ChatX
      • Bắt đầu nhanh
      • Phát triển với API
        • Câu hỏi thường gặp
    • Sử dụng ứng dụng ChatX
      • Máy tạo văn bản
      • Chatbot
      • Cài đặt ứng dụng trò chuyện khác
  • II, TÍNH NĂNG CƠ BẢN
    • Chế độ chuyên gia nhắc nhở
      • Mẫu nhắc nhở
    • Quy trình làm việc
      • Giới thiệu
      • Khái niệm chính
      • Nodes
        • Start
        • End
        • Answer
        • LLM
        • Truy Vấn Cơ Sở Kiến Thức
        • Question Classifier(Phân Loại Câu Hỏi)
        • IF/ELSE
        • Code (Mã)
        • Template
        • Variable Assigner
        • HTTP Reques
        • Tools
      • Preview&Run
        • Preview&Run
        • Step Test (Bước Kiểm Tra)
        • Log (Nhật ký)
        • Checklist (Danh mục)
        • History (Lịch sử)
      • Publish (Xuất bản)
      • Export/Import
    • RAG (Tạo tăng cường truy xuất)
      • Hybrid Search (Tìm kiếm kết hợp)
      • Rerank (Sắp xếp lại)
      • Retrieval (Truy xuất)
    • Knowledge Import ( Nhập kiến thức)
      • Đồng bộ từ Notion
      • Duy trì kiến ​​thức qua Api
    • Công cụ dữ liệu ngoài
    • Annotation Reply (Phản hồi chú thích)
    • Nhật ký & Thông báo
    • Plugins
      • Dựa Trên Mẫu WebApp
    • Tích hợp nhiều hơn
    • Extension (Tiện ích)
      • Mở rộng Dựa trên API
        • External_data_tool
        • Tiện ích mở rộng kiểm duyệt
      • Tiện ích mở rộng dựa trên mã
    • Kiểm duyệt
  • III, WORKSPACE
    • Khám phá
    • Thanh toán
  • IV, HƯỚNG DẪN TÍCH HỢP NÂNG CAO
    • Tích hợp công cụ nhanh
    • Tích hợp công cụ nâng cao
    • Hiển thị tiện ích mở rộng API trên Internet công cộng bằng cách sử dụng Cloudflare Workers
    • Kết nối với các mô hình khác nhau
      • Hugging Face
      • Replicate
      • Xinference
      • OpenLLM
      • LocalAI
      • Ollama
    • Công cụ Di chuyển Vector Database
    • Kết nối với các công cụ khác nhau
      • Stable Diffusion
      • SearXNG
  • CỘNG ĐỒNG
    • Hướng dẫn đóng góp
    • Hỗ trợ
  • Thỏa Thuận Người Dùng
    • Giấy phép mã nguồn mở
    • Bảo Mật Dữ Liệu
Powered by GitBook
On this page
  • Triển khai Mô hình OpenLLM
  • Bắt đầu OpenLLM
  1. IV, HƯỚNG DẪN TÍCH HỢP NÂNG CAO
  2. Kết nối với các mô hình khác nhau

OpenLLM

PreviousXinferenceNextLocalAI

Last updated 1 year ago

Với , bạn có thể chạy suy luận với bất kỳ mô hình ngôn ngữ lớn mã nguồn mở nào, triển khai lên đám mây hoặc tại chỗ, và xây dựng các ứng dụng AI mạnh mẽ. Và ChatX hỗ trợ kết nối với các khả năng suy luận của mô hình ngôn ngữ lớn đã triển khai của OpenLLM một cách cục bộ.

Triển khai Mô hình OpenLLM

Bắt đầu OpenLLM

Mỗi OpenLLM Server có thể triển khai một mô hình, và bạn có thể triển khai nó theo cách sau:

docker run --rm -it -p 3333:3000 ghcr.io/bentoml/openllm start facebook/opt-1.3b --backend pt

Lưu ý: Sử dụng mô hình facebook/opt-1.3b ở đây chỉ là để minh họa, và hiệu quả có thể không tốt. Vui lòng chọn mô hình phù hợp theo tình hình thực tế. Để biết thêm các mô hình, vui lòng tham khảo: .

Sau khi mô hình được triển khai, sử dụng mô hình đã kết nối trong ChatX.

Điền vào trong Cài đặt > Nhà cung cấp Mô hình > OpenLLM:

  • Tên Mô hình: facebook/opt-1.3b

  • URL Máy chủ: http://<Machine_IP>:3333 Thay thế bằng địa chỉ IP máy của bạn

Nhấp vào "Lưu" và mô hình có thể được sử dụng trong ứng dụng.

Hướng dẫn này chỉ để kết nối nhanh chóng như một ví dụ. Để biết thêm tính năng và thông tin về cách sử dụng OpenLLM, vui lòng tham khảo:

OpenLLM
Supported Model List
OpenLLM