Document ChatX (Dev)
Document Developer ChatX
Document Developer ChatX
  • I. THIẾT LẬP CƠ BẢN
    • Tạo ứng dụng ChatX
      • Bắt đầu nhanh
      • Tổng quan
      • Tạo AI Bot
        • Agent Assistant
        • Chatbot
        • Máy tạo văn bản
      • Câu hỏi thường gặp
      • Trường hợp sử dụng
        • Trợ lý Notion AI dựa trên ghi chú của riêng bạn
        • ChatBot AI với dữ liệu doanh nghiệp
        • Bot Yêu Cầu Giữa Hành Trình
    • Phát hành ứng dụng ChatX
      • Bắt đầu nhanh
      • Phát triển với API
        • Câu hỏi thường gặp
    • Sử dụng ứng dụng ChatX
      • Máy tạo văn bản
      • Chatbot
      • Cài đặt ứng dụng trò chuyện khác
  • II, TÍNH NĂNG CƠ BẢN
    • Chế độ chuyên gia nhắc nhở
      • Mẫu nhắc nhở
    • Quy trình làm việc
      • Giới thiệu
      • Khái niệm chính
      • Nodes
        • Start
        • End
        • Answer
        • LLM
        • Truy Vấn Cơ Sở Kiến Thức
        • Question Classifier(Phân Loại Câu Hỏi)
        • IF/ELSE
        • Code (Mã)
        • Template
        • Variable Assigner
        • HTTP Reques
        • Tools
      • Preview&Run
        • Preview&Run
        • Step Test (Bước Kiểm Tra)
        • Log (Nhật ký)
        • Checklist (Danh mục)
        • History (Lịch sử)
      • Publish (Xuất bản)
      • Export/Import
    • RAG (Tạo tăng cường truy xuất)
      • Hybrid Search (Tìm kiếm kết hợp)
      • Rerank (Sắp xếp lại)
      • Retrieval (Truy xuất)
    • Knowledge Import ( Nhập kiến thức)
      • Đồng bộ từ Notion
      • Duy trì kiến ​​thức qua Api
    • Công cụ dữ liệu ngoài
    • Annotation Reply (Phản hồi chú thích)
    • Nhật ký & Thông báo
    • Plugins
      • Dựa Trên Mẫu WebApp
    • Tích hợp nhiều hơn
    • Extension (Tiện ích)
      • Mở rộng Dựa trên API
        • External_data_tool
        • Tiện ích mở rộng kiểm duyệt
      • Tiện ích mở rộng dựa trên mã
    • Kiểm duyệt
  • III, WORKSPACE
    • Khám phá
    • Thanh toán
  • IV, HƯỚNG DẪN TÍCH HỢP NÂNG CAO
    • Tích hợp công cụ nhanh
    • Tích hợp công cụ nâng cao
    • Hiển thị tiện ích mở rộng API trên Internet công cộng bằng cách sử dụng Cloudflare Workers
    • Kết nối với các mô hình khác nhau
      • Hugging Face
      • Replicate
      • Xinference
      • OpenLLM
      • LocalAI
      • Ollama
    • Công cụ Di chuyển Vector Database
    • Kết nối với các công cụ khác nhau
      • Stable Diffusion
      • SearXNG
  • CỘNG ĐỒNG
    • Hướng dẫn đóng góp
    • Hỗ trợ
  • Thỏa Thuận Người Dùng
    • Giấy phép mã nguồn mở
    • Bảo Mật Dữ Liệu
Powered by GitBook
On this page
  • Tích hợp nhanh
  • Tải xuống và khởi chạy Ollama
  • Câu hỏi thường gặp
  • ⚠️ Nếu bạn đang sử dụng docker để triển khai ChatX và Ollama, bạn có thể gặp lỗi sau:
  • Thiết lập biến môi trường trên Mac
  • Thiết lập biến môi trường trên Linux
  • Thiết lập biến môi trường trên Windows
  • Làm cách nào để mở dịch vụ Ollama trên mạng của tôi?
  • Thông tin thêm
  1. IV, HƯỚNG DẪN TÍCH HỢP NÂNG CAO
  2. Kết nối với các mô hình khác nhau

Ollama

PreviousLocalAINextCông cụ Di chuyển Vector Database

Last updated 1 year ago

là một framework suy luận cục bộ cho phép triển khai các mô hình ngôn ngữ lớn như Llama 2, Mistral, Llava, v.v., chỉ với một cú nhấp chuột. ChatX hỗ trợ tích hợp các khả năng suy luận và nhúng văn bản của các mô hình ngôn ngữ lớn được triển khai bằng Ollama.

Tích hợp nhanh

Tải xuống và khởi chạy Ollama

  1. Tải xuống Ollama

  2. Chạy Ollama và trò chuyện với Llava

    ollama run llava

    Sau khi khởi chạy thành công, Ollama sẽ bắt đầu dịch vụ API trên cổng cục bộ 11434, có thể truy cập tại http://localhost:11434.

  3. Tích hợp Ollama vào ChatX

    Trong Cài đặt > Nhà cung cấp Mô hình > Ollama, điền vào:

  • Tên Mô hình: llava

  • Base URL: http://<your-ollama-endpoint-domain>:11434

    Nhập URL cơ sở nơi dịch vụ Ollama có thể truy cập.

    Nếu ChatX được triển khai bằng docker, hãy xem xét sử dụng địa chỉ IP mạng cục bộ, ví dụ:http://192.168.1.100:11434 hoặc địa chỉ IP của máy chủ docker, ví dụ:http://172.17.0.1:11434.

    Đối với triển khai mã nguồn cục bộ, sử dụng http://localhost:11434.

  • Loại Mô hình: Chat

  • Độ dài ngữ cảnh của mô hình: 4096

    Độ dài ngữ cảnh tối đa của mô hình. Nếu không chắc chắn, sử dụng giá trị mặc định là 4096.

  • Giới hạn số lượng token tối đa: 4096

    Số lượng token tối đa mà mô hình trả về. Nếu không có yêu cầu cụ thể nào cho mô hình, điều này có thể đồng nhất với độ dài ngữ cảnh của mô hình.

  • Hỗ trợ hình ảnh: Có

    Chọn tùy chọn này nếu mô hình hỗ trợ hiểu hình ảnh (đa phương tiện), như llava.

Nhấp vào "Lưu" để sử dụng mô hình trong ứng dụng sau khi xác nhận không có lỗi.

Phương pháp tích hợp cho các mô hình nhúng tương tự như LLM, chỉ cần thay đổi loại mô hình thành Text Embedding.

  1. Sử dụng các mô hình Ollama

Truy cập trang Prompt Eng. của ứng dụng cần cấu hình, chọn mô hình llava dưới nhà cung cấp Ollama, và sử dụng sau khi cấu hình các tham số mô hình.

Câu hỏi thường gặp

⚠️ Nếu bạn đang sử dụng docker để triển khai ChatX và Ollama, bạn có thể gặp lỗi sau:

httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))

httpconnectionpool(host=localhost, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))

Lỗi này xảy ra vì dịch vụ Ollama không thể truy cập từ container docker. localhost thường chỉ tới chính container, không phải máy chủ hoặc các container khác. Để giải quyết vấn đề này, bạn cần mở dịch vụ Ollama ra mạng.

Thiết lập biến môi trường trên Mac

Nếu Ollama chạy như một ứng dụng macOS, các biến môi trường nên được thiết lập bằng cách sử dụng launchctl:

  1. Đối với mỗi biến môi trường, gọi launchctl setenv.

    launchctl setenv OLLAMA_HOST "0.0.0.0"
  2. Khởi động lại ứng dụng Ollama.

  3. Nếu các bước trên không hiệu quả, bạn có thể sử dụng phương pháp sau:

    Vấn đề nằm trong Docker, và để truy cập host Docker, bạn nên kết nối tới host.docker.internal. Do đó, thay thế localhost bằng host.docker.internal trong dịch vụ sẽ làm cho nó hoạt động hiệu quả.

    http://host.docker.internal:11434

Thiết lập biến môi trường trên Linux

Nếu Ollama chạy như một dịch vụ systemd, các biến môi trường nên được thiết lập bằng cách sử dụng systemctl:

  1. Chỉnh sửa dịch vụ systemd bằng cách gọi systemctl edit ollama.service. Điều này sẽ mở một trình chỉnh sửa.

  2. Đối với mỗi biến môi trường, thêm một dòng Environment dưới mục [Service]:

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
  3. Lưu và thoát.

  4. Tải lại systemd và khởi động lại Ollama:

    systemctl daemon-reload
    systemctl restart ollama

Thiết lập biến môi trường trên Windows

Trên Windows, Ollama kế thừa các biến môi trường người dùng và hệ thống của bạn.

  1. Đầu tiên, thoát Ollama bằng cách nhấp vào nó trên thanh tác vụ.

  2. Chỉnh sửa các biến môi trường hệ thống từ bảng điều khiển.

  3. Chỉnh sửa hoặc tạo mới biến (các) cho tài khoản người dùng của bạn cho OLLAMA_HOST, OLLAMA_MODELS, v.v.

  4. Nhấp OK/Áp dụng để lưu.

  5. Chạy ollama từ một cửa sổ terminal mới.

Làm cách nào để mở dịch vụ Ollama trên mạng của tôi?

Ollama mặc định liên kết cổng 127.0.0.1 port 11434. Thay đổi địa chỉ liên kết bằng biến môi trường OLLAMA_HOST.

Thông tin thêm

Để biết thêm thông tin về Ollama, vui lòng tham khảo:

Truy cập để tải xuống client Ollama cho hệ thống của bạn.

Đối với các mô hình khác, truy cập để biết thêm chi tiết.

https://ollama.ai/download
Ollama Models
Ollama
Ollama FAQ
Ollama
Ollama