Document ChatX (Dev)
Document Developer ChatX
Document Developer ChatX
  • I. THIẾT LẬP CƠ BẢN
    • Tạo ứng dụng ChatX
      • Bắt đầu nhanh
      • Tổng quan
      • Tạo AI Bot
        • Agent Assistant
        • Chatbot
        • Máy tạo văn bản
      • Câu hỏi thường gặp
      • Trường hợp sử dụng
        • Trợ lý Notion AI dựa trên ghi chú của riêng bạn
        • ChatBot AI với dữ liệu doanh nghiệp
        • Bot Yêu Cầu Giữa Hành Trình
    • Phát hành ứng dụng ChatX
      • Bắt đầu nhanh
      • Phát triển với API
        • Câu hỏi thường gặp
    • Sử dụng ứng dụng ChatX
      • Máy tạo văn bản
      • Chatbot
      • Cài đặt ứng dụng trò chuyện khác
  • II, TÍNH NĂNG CƠ BẢN
    • Chế độ chuyên gia nhắc nhở
      • Mẫu nhắc nhở
    • Quy trình làm việc
      • Giới thiệu
      • Khái niệm chính
      • Nodes
        • Start
        • End
        • Answer
        • LLM
        • Truy Vấn Cơ Sở Kiến Thức
        • Question Classifier(Phân Loại Câu Hỏi)
        • IF/ELSE
        • Code (Mã)
        • Template
        • Variable Assigner
        • HTTP Reques
        • Tools
      • Preview&Run
        • Preview&Run
        • Step Test (Bước Kiểm Tra)
        • Log (Nhật ký)
        • Checklist (Danh mục)
        • History (Lịch sử)
      • Publish (Xuất bản)
      • Export/Import
    • RAG (Tạo tăng cường truy xuất)
      • Hybrid Search (Tìm kiếm kết hợp)
      • Rerank (Sắp xếp lại)
      • Retrieval (Truy xuất)
    • Knowledge Import ( Nhập kiến thức)
      • Đồng bộ từ Notion
      • Duy trì kiến ​​thức qua Api
    • Công cụ dữ liệu ngoài
    • Annotation Reply (Phản hồi chú thích)
    • Nhật ký & Thông báo
    • Plugins
      • Dựa Trên Mẫu WebApp
    • Tích hợp nhiều hơn
    • Extension (Tiện ích)
      • Mở rộng Dựa trên API
        • External_data_tool
        • Tiện ích mở rộng kiểm duyệt
      • Tiện ích mở rộng dựa trên mã
    • Kiểm duyệt
  • III, WORKSPACE
    • Khám phá
    • Thanh toán
  • IV, HƯỚNG DẪN TÍCH HỢP NÂNG CAO
    • Tích hợp công cụ nhanh
    • Tích hợp công cụ nâng cao
    • Hiển thị tiện ích mở rộng API trên Internet công cộng bằng cách sử dụng Cloudflare Workers
    • Kết nối với các mô hình khác nhau
      • Hugging Face
      • Replicate
      • Xinference
      • OpenLLM
      • LocalAI
      • Ollama
    • Công cụ Di chuyển Vector Database
    • Kết nối với các công cụ khác nhau
      • Stable Diffusion
      • SearXNG
  • CỘNG ĐỒNG
    • Hướng dẫn đóng góp
    • Hỗ trợ
  • Thỏa Thuận Người Dùng
    • Giấy phép mã nguồn mở
    • Bảo Mật Dữ Liệu
Powered by GitBook
On this page
  • 1. Làm thế nào để chọn một mô hình cơ bản?
  • 2. Tại sao nên đặt max_tokens nhỏ hơn?
  • 3. Làm thế nào để phân chia dữ liệu văn bản dài trong kiến ​​thức một cách hợp lý?
  • 4. Chúng ta đã sử dụng hàm khoảng cách nào khi phân đoạn kiến ​​thức?
  • 5. Khi điền khóa OpenAI, xảy ra lỗi 'Validation failed: You exceeded your current quota, please check your plan and billing details'. Điều gì gây ra lỗi này?
  • 6. Khi sử dụng key của OpenAI để hội thoại trong ứng dụng sẽ xuất hiện thông báo lỗi như sau. Nguyên nhân là gì?
  • 7. Sau khi triển khai cục bộ, Explore-Chat trả về lỗi 'Unrecognized request argument supplied: functions'. Vấn đề đó được giải quyết như thế nào?
  • 8. Khi chuyển đổi mô hình trong ứng dụng, gặp phải lỗi sau:
  • 9. Làm thế nào để giải quyết lỗi nhắc nhở sau đây?
  • 10. Các mô hình mặc định trong ChatX là gì và có thể sử dụng LLM nguồn mở không?
  • 11. Kiến thức trong Phiên bản cộng đồng bị kẹt trong 'Queued' khi chế độ phân đoạn Hỏi & Đáp được bật.
  • 12. Lỗi 'Invalid token' xuất hiện khi sử dụng ứng dụng.
  • 13. Giới hạn kích thước để tải lên tài liệu kiến ​​thức là gì?
  • 14. Tại sao Claude vẫn sử dụng tín dụng OpenAI khi sử dụng mô hình Claude?
  • 15. Có cách nào để kiểm soát việc sử dụng nhiều hơn dữ liệu tri thức thay vì khả năng tạo ra của chính mô hình không?
  • 16. Làm cách nào để phân đoạn tốt hơn tài liệu kiến ​​thức đã tải lên trong Excel?
  • 17. Tôi đã mua ChatGPT plus, tại sao tôi vẫn không thể sử dụng GPT4 trong ChatX?
  • 18. Làm cách nào để thêm các mô hình nhúng khác?
  • 19. Làm cách nào tôi có thể đặt ứng dụng do chính mình tạo làm mẫu ứng dụng?
  • 20. 502 Bad Gateway
  1. I. THIẾT LẬP CƠ BẢN
  2. Tạo ứng dụng ChatX

Câu hỏi thường gặp

PreviousMáy tạo văn bảnNextTrường hợp sử dụng

Last updated 1 year ago

1. Làm thế nào để chọn một mô hình cơ bản?

gpt-3.5-turbo •gpt-3.5-turbo là một phiên bản nâng cấp của dòng mô hình GPT-3. Nó mạnh mẽ hơn GPT-3 và có thể xử lý các nhiệm vụ phức tạp hơn. Nó có những cải tiến đáng kể trong việc hiểu văn bản dài và tư duy liên văn bản. GPT-3.5 Turbo có thể tạo ra văn bản mạch lạc và thuyết phục hơn. Nó cũng có cải tiến lớn trong việc tóm tắt, dịch và viết sáng tạo. Tốt ở: Hiểu văn bản dài, tư duy liên văn bản, tóm tắt, dịch, viết sáng tạo.

gpt-4 •gpt-4 là mô hình ngôn ngữ Transformer mạnh mẽ nhất và mới nhất. Nó có gần 200 tỷ tham số được huấn luyện trước, khiến cho nó tiên tiến nhất trong tất cả các nhiệm vụ ngôn ngữ, đặc biệt là những nhiệm vụ đòi hỏi sự hiểu biết sâu sắc và tạo ra các phản ứng dài, phức tạp. GPT-4 có thể xử lý mọi khía cạnh của ngôn ngữ con người, bao gồm việc hiểu các khái niệm trừu tượng và tư duy qua các trang văn bản. GPT-4 là hệ thống hiểu ngôn ngữ tổng quát đầu tiên thực sự có thể xử lý bất kỳ nhiệm vụ xử lý ngôn ngữ tự nhiên nào trong lĩnh vực trí tuệ nhân tạo. Tốt ở: Tất cả các nhiệm vụ xử lý ngôn ngữ, hiểu ngôn ngữ, tạo ra văn bản dài, tư duy liên văn bản, hiểu các khái niệm trừu tượng.

Vui lòng tham khảo:

2. Tại sao nên đặt max_tokens nhỏ hơn?

Trong xử lý ngôn ngữ tự nhiên, đầu ra văn bản dài thường đòi hỏi thời gian tính toán và tài nguyên máy tính nhiều hơn. Do đó, việc giới hạn độ dài của văn bản đầu ra có thể giảm thiểu chi phí tính toán và thời gian một phần nào đó. Ví dụ, đặt: max_tokens=500, có nghĩa là chỉ có 500 token đầu tiên của văn bản đầu ra được xem xét, và phần vượt quá độ dài này sẽ bị loại bỏ. Mục đích của việc này là đảm bảo rằng độ dài của văn bản đầu ra không vượt quá phạm vi chấp nhận được của LLM, đồng thời tận dụng đầy đủ tài nguyên tính toán để cải thiện hiệu suất của mô hình. Tuy nhiên, việc giới hạn max_tokens thường cũng tạo ra sự giới hạn về độ dài của lời nhắc, ví dụ như giới hạn của gpt-3.5-turbo là 4097 token, nếu bạn đặt max_tokens=4000, thì chỉ còn lại 97 token cho lời nhắc, và sẽ báo lỗi nếu vượt quá.

3. Làm thế nào để phân chia dữ liệu văn bản dài trong kiến ​​thức một cách hợp lý?

Trong một số ứng dụng xử lý ngôn ngữ tự nhiên, văn bản thường được chia thành các đoạn văn hoặc câu để tăng cường việc xử lý và hiểu thông tin ý nghĩa và cấu trúc trong văn bản. Đơn vị chia nhỏ nhất phụ thuộc vào nhiệm vụ cụ thể và cách thực hiện kỹ thuật. Ví dụ:

  • Đối với các nhiệm vụ phân loại văn bản, văn bản thường được chia thành các câu hoặc đoạn văn.

  • Đối với các nhiệm vụ dịch máy, cần sử dụng toàn bộ các câu hoặc đoạn văn làm đơn vị chia nhỏ.

Cuối cùng, các thí nghiệm và đánh giá vẫn cần được thực hiện để xác định công nghệ nhúng và đơn vị chia nhỏ phù hợp nhất. Hiệu suất của các công nghệ và đơn vị chia nhỏ khác nhau có thể được so sánh trên tập kiểm tra để chọn ra kế hoạch tối ưu nhất.

4. Chúng ta đã sử dụng hàm khoảng cách nào khi phân đoạn kiến ​​thức?

Chúng tôi sử dụng . Sự lựa chọn của hàm khoảng cách thường không quan trọng. Các vectơ nhúng của OpenAI được chuẩn hóa thành độ dài 1, điều này có nghĩa là:

  • Sử dụng tích vô hướng để tính toán độ tương tự cosin có thể nhanh hơn một chút.

  • Độ tương tự cosin và khoảng cách Euclid sẽ dẫn đến cùng một sắp xếp.

Sau khi các vectơ nhúng được chuẩn hóa thành độ dài 1, việc tính độ tương tự cosin giữa hai vectơ có thể được đơn giản hóa thành tích vô hướng của chúng. Bởi vì các vectơ được chuẩn hóa có độ dài bằng 1, kết quả của tích vô hướng bằng với kết quả của độ tương tự cosin.

Vì việc tính toán tích vô hướng nhanh hơn so với các phương pháp tương tự khác (như khoảng cách Euclid), việc sử dụng các vectơ được chuẩn hóa để tính toán tích vô hướng có thể làm tăng hiệu suất tính toán một cách nhẹ nhàng.

5. Khi điền khóa OpenAI, xảy ra lỗi 'Validation failed: You exceeded your current quota, please check your plan and billing details'. Điều gì gây ra lỗi này?

6. Khi sử dụng key của OpenAI để hội thoại trong ứng dụng sẽ xuất hiện thông báo lỗi như sau. Nguyên nhân là gì?

Lỗi 1:

The server encountered an internal error and was unable to complete your request。Either the server is overloaded or there is an error in the application

Lỗi 2:

Rate limit reached for default-gpt-3.5-turboin organization org-wDrZCxxxxxxxxxissoZb on requestsper min。 Limit: 3 / min. Please try again in 20s. Contact us through our help center   at help.openai.com   if you continue to haveissues. Please add a payment method toyour account to increase your rate limit.Visit https://platform.openai.com/account/billingto add a payment method.

7. Sau khi triển khai cục bộ, Explore-Chat trả về lỗi 'Unrecognized request argument supplied: functions'. Vấn đề đó được giải quyết như thế nào?

Đầu tiên, hãy kiểm tra rằng phiên bản frontend và backend đã được cập nhật và phù hợp với nhau. Lỗi này cũng có thể xảy ra nếu một khóa Azure OpenAI được sử dụng mà không thành công trong việc triển khai mô hình. Xác minh rằng tài nguyên Azure OpenAI đã triển khai một mô hình - phiên bản mô hình gpt-3.5-turbo phải là 0613 trở lên, vì các phiên bản trước đó không hỗ trợ các tính năng gọi chức năng được yêu cầu bởi Explore-Chat.

8. Khi chuyển đổi mô hình trong ứng dụng, gặp phải lỗi sau:

Anthropic: Error code: 400 - f'error': f'type': "invalid request error, 'message': 'temperature: range: -1 or 0..1)

Lỗi này xảy ra vì mỗi mô hình có các phạm vi hợp lệ khác nhau cho các tham số của nó. Đảm bảo cấu hình giá trị tham số theo phạm vi được cho phép cho mô hình hiện tại.

9. Làm thế nào để giải quyết lỗi nhắc nhở sau đây?

Query or prefix prompt is too long, you can reduce the preix prompt, or shrink the max token, or switch to a llm with a larger token limit size

Bạn có thể giảm giá trị của "Max token" trong cài đặt tham số của Orchestrate.

10. Các mô hình mặc định trong ChatX là gì và có thể sử dụng LLM nguồn mở không?

A: Các mô hình mặc định có thể được cấu hình trong Cài đặt - Nhà cung cấp Mô hình. Các mô hình LLM (Máy học Sâu Ngôn ngữ) hỗ trợ hiện tại bao gồm OpenAI, Azure OpenAI, Anthropic, v.v. Đồng thời, các LLM mã nguồn mở được lưu trữ trên Hugging Face, Replicate, xinference, v.v. cũng có thể được tích hợp.

11. Kiến thức trong Phiên bản cộng đồng bị kẹt trong 'Queued' khi chế độ phân đoạn Hỏi & Đáp được bật.

Vui lòng kiểm tra xem khóa API mô hình nhúng đã đạt đến giới hạn tốc độ hay chưa.

12. Lỗi 'Invalid token' xuất hiện khi sử dụng ứng dụng.

Có hai giải pháp tiềm năng nếu xuất hiện lỗi "Invalid token":

  • Xóa bộ nhớ cache trình duyệt (cookie, bộ nhớ phiên và bộ nhớ cục bộ) hoặc bộ nhớ cache ứng dụng trên thiết bị di động. Sau đó, truy cập lại ứng dụng.

  • Tạo lại URL của ứng dụng và truy cập lại ứng dụng với URL mới. Điều này có thể giải quyết lỗi "Invalid token".

13. Giới hạn kích thước để tải lên tài liệu kiến ​​thức là gì?

Kích thước tối đa cho một lần tải lên tài liệu hiện là 15MB. Ngoài ra còn có giới hạn tổng cộng 100 tài liệu. Những giới hạn này có thể được điều chỉnh nếu bạn đang sử dụng triển khai cục bộ. Tham khảo tài liệu để biết chi tiết về việc thay đổi giới hạn.

14. Tại sao Claude vẫn sử dụng tín dụng OpenAI khi sử dụng mô hình Claude?

Mô hình Claude không có mô hình nhúng riêng của nó. Do đó, quá trình nhúng và các quá trình tạo đoạn văn tiếp theo như gợi ý câu hỏi mặc định sẽ sử dụng các khóa OpenAI. Điều này có nghĩa là vẫn sử dụng tín dụng OpenAI. Bạn có thể thiết lập các mô hình suy luận và nhúng mặc định khác nhau trong Cài đặt > Nhà cung cấp Mô hình.

15. Có cách nào để kiểm soát việc sử dụng nhiều hơn dữ liệu tri thức thay vì khả năng tạo ra của chính mô hình không?

16. Làm cách nào để phân đoạn tốt hơn tài liệu kiến ​​thức đã tải lên trong Excel?

Đặt tiêu đề ở hàng đầu tiên và hiển thị nội dung ở mỗi hàng tiếp theo. Không có bất kỳ cài đặt tiêu đề bổ sung hoặc nội dung bảng được định dạng phức tạp nào.

17. Tôi đã mua ChatGPT plus, tại sao tôi vẫn không thể sử dụng GPT4 trong ChatX?

18. Làm cách nào để thêm các mô hình nhúng khác?

ChatX hỗ trợ sử dụng các nhà cung cấp được liệt kê dưới đây như là nhà cung cấp mô hình nhúng, chỉ cần chọn loại Embedding trong hộp cấu hình

  • Azure

  • LocalAI

  • MiniMax

  • OpenAI

  • Replicate

  • XInference

19. Làm cách nào tôi có thể đặt ứng dụng do chính mình tạo làm mẫu ứng dụng?

Khả năng đặt ứng dụng mà bạn tạo ra làm mẫu hiện tại không được hỗ trợ. Các mẫu hiện có được ChatX cung cấp chính thức để tham khảo cho người dùng phiên bản đám mây. Nếu bạn đang sử dụng phiên bản đám mây, bạn có thể thêm ứng dụng vào không gian làm việc của mình hoặc tùy chỉnh chúng để tạo ra ứng dụng của riêng mình sau khi chỉnh sửa. Nếu bạn đang sử dụng phiên bản cộng đồng và cần tạo thêm mẫu ứng dụng cho nhóm của mình, bạn có thể tham khảo với nhóm kinh doanh của chúng tôi để nhận được hỗ trợ kỹ thuật trả phí: business@chatx.ai

20. 502 Bad Gateway

Lỗi này xuất hiện do Nginx chuyển hướng dịch vụ đến vị trí sai. Đầu tiên, đảm bảo rằng container đang chạy, sau đó chạy lệnh sau với quyền root:

docker ps -q | xargs -n 1 docker inspect --format '{{ .Name }}: {{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}'

Tìm hai dòng sau trong output:

/docker-web-1: 172.19.0.5
/docker-api-1: 172.19.0.7

Ghi nhớ các địa chỉ IP ở cuối. Sau đó, mở thư mục nơi bạn lưu mã nguồn của ChatX, mở chatx/docker/nginx/conf.d, thay thế http://api:5001 bằng http://172.19.0.7:5001 và thay thế http://web:3000 bằng http://172.19.0.5:3000. Sau đó, khởi động lại container Nginx hoặc tải lại cấu hình.

Các địa chỉ IP này là ví dụ, bạn phải thực hiện lệnh để lấy địa chỉ IP của riêng bạn, đừng điền trực tiếp.

Bạn có thể cần phải cấu hình lại dựa trên địa chỉ IP khi khởi động lại các container liên quan.

Thông báo này cho biết số dư tài khoản khóa của OpenAI đã được sử dụng hết. Vui lòng nạp tiền vào tài khoản OpenAI tại openai.com. Tham khảo để biết thông tin chi tiết về các gói dịch vụ và hóa đơn của họ.

Vui lòng kiểm tra xem đã đạt đến giới hạn tốc độ cuộc gọi giao diện chính thức hay chưa. Vui lòng tham khảo để biết chi tiết.

Việc sử dụng cơ sở tri thức có liên quan đến việc mô tả tri thức đó hay không. Hãy viết phần mô tả kiến ​​thức càng rõ ràng càng tốt. Vui lòng tham khảo để biết chi tiết.

ChatGPT Plus và API của mô hình GPT-4 của OpenAI là hai sản phẩm riêng biệt với cấu trúc giá cả riêng. Các API mô hình có cấu trúc giá cả riêng, xem để biết chi tiết. Để truy cập vào API của mô hình GPT-4, bạn cần thanh toán cho một chu kỳ thanh toán - việc chỉ có một phương thức thanh toán trên tệp và truy cập vào GPT-3.5 thông qua ChatGPT Plus không đủ. Vui lòng tham khảo để biết đầy đủ chi tiết về cách truy cập GPT-4.

https://platform.openai.com/docs/models/overview
độ tương tự cosin
OpenAI
tài liệu chính thức
tài liệu
tài liệu giá của OpenAI
tài liệu chính thức của OpenAI