gpt-3.5-turbo •gpt-3.5-turbo là một phiên bản nâng cấp của dòng mô hình GPT-3. Nó mạnh mẽ hơn GPT-3 và có thể xử lý các nhiệm vụ phức tạp hơn. Nó có những cải tiến đáng kể trong việc hiểu văn bản dài và tư duy liên văn bản. GPT-3.5 Turbo có thể tạo ra văn bản mạch lạc và thuyết phục hơn. Nó cũng có cải tiến lớn trong việc tóm tắt, dịch và viết sáng tạo. Tốt ở: Hiểu văn bản dài, tư duy liên văn bản, tóm tắt, dịch, viết sáng tạo.
gpt-4 •gpt-4 là mô hình ngôn ngữ Transformer mạnh mẽ nhất và mới nhất. Nó có gần 200 tỷ tham số được huấn luyện trước, khiến cho nó tiên tiến nhất trong tất cả các nhiệm vụ ngôn ngữ, đặc biệt là những nhiệm vụ đòi hỏi sự hiểu biết sâu sắc và tạo ra các phản ứng dài, phức tạp. GPT-4 có thể xử lý mọi khía cạnh của ngôn ngữ con người, bao gồm việc hiểu các khái niệm trừu tượng và tư duy qua các trang văn bản. GPT-4 là hệ thống hiểu ngôn ngữ tổng quát đầu tiên thực sự có thể xử lý bất kỳ nhiệm vụ xử lý ngôn ngữ tự nhiên nào trong lĩnh vực trí tuệ nhân tạo. Tốt ở: Tất cả các nhiệm vụ xử lý ngôn ngữ, hiểu ngôn ngữ, tạo ra văn bản dài, tư duy liên văn bản, hiểu các khái niệm trừu tượng.
Vui lòng tham khảo:
Trong xử lý ngôn ngữ tự nhiên, đầu ra văn bản dài thường đòi hỏi thời gian tính toán và tài nguyên máy tính nhiều hơn. Do đó, việc giới hạn độ dài của văn bản đầu ra có thể giảm thiểu chi phí tính toán và thời gian một phần nào đó. Ví dụ, đặt: max_tokens=500, có nghĩa là chỉ có 500 token đầu tiên của văn bản đầu ra được xem xét, và phần vượt quá độ dài này sẽ bị loại bỏ. Mục đích của việc này là đảm bảo rằng độ dài của văn bản đầu ra không vượt quá phạm vi chấp nhận được của LLM, đồng thời tận dụng đầy đủ tài nguyên tính toán để cải thiện hiệu suất của mô hình. Tuy nhiên, việc giới hạn max_tokens thường cũng tạo ra sự giới hạn về độ dài của lời nhắc, ví dụ như giới hạn của gpt-3.5-turbo là 4097 token, nếu bạn đặt max_tokens=4000, thì chỉ còn lại 97 token cho lời nhắc, và sẽ báo lỗi nếu vượt quá.
Trong một số ứng dụng xử lý ngôn ngữ tự nhiên, văn bản thường được chia thành các đoạn văn hoặc câu để tăng cường việc xử lý và hiểu thông tin ý nghĩa và cấu trúc trong văn bản. Đơn vị chia nhỏ nhất phụ thuộc vào nhiệm vụ cụ thể và cách thực hiện kỹ thuật. Ví dụ:
Đối với các nhiệm vụ phân loại văn bản, văn bản thường được chia thành các câu hoặc đoạn văn.
Đối với các nhiệm vụ dịch máy, cần sử dụng toàn bộ các câu hoặc đoạn văn làm đơn vị chia nhỏ.
Cuối cùng, các thí nghiệm và đánh giá vẫn cần được thực hiện để xác định công nghệ nhúng và đơn vị chia nhỏ phù hợp nhất. Hiệu suất của các công nghệ và đơn vị chia nhỏ khác nhau có thể được so sánh trên tập kiểm tra để chọn ra kế hoạch tối ưu nhất.
Chúng tôi sử dụng . Sự lựa chọn của hàm khoảng cách thường không quan trọng. Các vectơ nhúng của OpenAI được chuẩn hóa thành độ dài 1, điều này có nghĩa là:
Sử dụng tích vô hướng để tính toán độ tương tự cosin có thể nhanh hơn một chút.
Độ tương tự cosin và khoảng cách Euclid sẽ dẫn đến cùng một sắp xếp.
Sau khi các vectơ nhúng được chuẩn hóa thành độ dài 1, việc tính độ tương tự cosin giữa hai vectơ có thể được đơn giản hóa thành tích vô hướng của chúng. Bởi vì các vectơ được chuẩn hóa có độ dài bằng 1, kết quả của tích vô hướng bằng với kết quả của độ tương tự cosin.
Vì việc tính toán tích vô hướng nhanh hơn so với các phương pháp tương tự khác (như khoảng cách Euclid), việc sử dụng các vectơ được chuẩn hóa để tính toán tích vô hướng có thể làm tăng hiệu suất tính toán một cách nhẹ nhàng.
Lỗi 1:
Lỗi 2:
Đầu tiên, hãy kiểm tra rằng phiên bản frontend và backend đã được cập nhật và phù hợp với nhau. Lỗi này cũng có thể xảy ra nếu một khóa Azure OpenAI được sử dụng mà không thành công trong việc triển khai mô hình. Xác minh rằng tài nguyên Azure OpenAI đã triển khai một mô hình - phiên bản mô hình gpt-3.5-turbo phải là 0613 trở lên, vì các phiên bản trước đó không hỗ trợ các tính năng gọi chức năng được yêu cầu bởi Explore-Chat.
Lỗi này xảy ra vì mỗi mô hình có các phạm vi hợp lệ khác nhau cho các tham số của nó. Đảm bảo cấu hình giá trị tham số theo phạm vi được cho phép cho mô hình hiện tại.
Bạn có thể giảm giá trị của "Max token" trong cài đặt tham số của Orchestrate.
A: Các mô hình mặc định có thể được cấu hình trong Cài đặt - Nhà cung cấp Mô hình. Các mô hình LLM (Máy học Sâu Ngôn ngữ) hỗ trợ hiện tại bao gồm OpenAI, Azure OpenAI, Anthropic, v.v. Đồng thời, các LLM mã nguồn mở được lưu trữ trên Hugging Face, Replicate, xinference, v.v. cũng có thể được tích hợp.
Vui lòng kiểm tra xem khóa API mô hình nhúng đã đạt đến giới hạn tốc độ hay chưa.
Có hai giải pháp tiềm năng nếu xuất hiện lỗi "Invalid token":
Xóa bộ nhớ cache trình duyệt (cookie, bộ nhớ phiên và bộ nhớ cục bộ) hoặc bộ nhớ cache ứng dụng trên thiết bị di động. Sau đó, truy cập lại ứng dụng.
Tạo lại URL của ứng dụng và truy cập lại ứng dụng với URL mới. Điều này có thể giải quyết lỗi "Invalid token".
Mô hình Claude không có mô hình nhúng riêng của nó. Do đó, quá trình nhúng và các quá trình tạo đoạn văn tiếp theo như gợi ý câu hỏi mặc định sẽ sử dụng các khóa OpenAI. Điều này có nghĩa là vẫn sử dụng tín dụng OpenAI. Bạn có thể thiết lập các mô hình suy luận và nhúng mặc định khác nhau trong Cài đặt > Nhà cung cấp Mô hình.
Đặt tiêu đề ở hàng đầu tiên và hiển thị nội dung ở mỗi hàng tiếp theo. Không có bất kỳ cài đặt tiêu đề bổ sung hoặc nội dung bảng được định dạng phức tạp nào.
ChatX hỗ trợ sử dụng các nhà cung cấp được liệt kê dưới đây như là nhà cung cấp mô hình nhúng, chỉ cần chọn loại Embedding
trong hộp cấu hình
Azure
LocalAI
MiniMax
OpenAI
Replicate
XInference
Khả năng đặt ứng dụng mà bạn tạo ra làm mẫu hiện tại không được hỗ trợ. Các mẫu hiện có được ChatX cung cấp chính thức để tham khảo cho người dùng phiên bản đám mây. Nếu bạn đang sử dụng phiên bản đám mây, bạn có thể thêm ứng dụng vào không gian làm việc của mình hoặc tùy chỉnh chúng để tạo ra ứng dụng của riêng mình sau khi chỉnh sửa. Nếu bạn đang sử dụng phiên bản cộng đồng và cần tạo thêm mẫu ứng dụng cho nhóm của mình, bạn có thể tham khảo với nhóm kinh doanh của chúng tôi để nhận được hỗ trợ kỹ thuật trả phí: business@chatx.ai
Lỗi này xuất hiện do Nginx chuyển hướng dịch vụ đến vị trí sai. Đầu tiên, đảm bảo rằng container đang chạy, sau đó chạy lệnh sau với quyền root:
Tìm hai dòng sau trong output:
Ghi nhớ các địa chỉ IP ở cuối. Sau đó, mở thư mục nơi bạn lưu mã nguồn của ChatX, mở chatx/docker/nginx/conf.d, thay thế http://api:5001 bằng http://172.19.0.7:5001 và thay thế http://web:3000 bằng http://172.19.0.5:3000. Sau đó, khởi động lại container Nginx hoặc tải lại cấu hình.
Các địa chỉ IP này là ví dụ, bạn phải thực hiện lệnh để lấy địa chỉ IP của riêng bạn, đừng điền trực tiếp.
Bạn có thể cần phải cấu hình lại dựa trên địa chỉ IP khi khởi động lại các container liên quan.
Thông báo này cho biết số dư tài khoản khóa của OpenAI đã được sử dụng hết. Vui lòng nạp tiền vào tài khoản OpenAI tại openai.com. Tham khảo để biết thông tin chi tiết về các gói dịch vụ và hóa đơn của họ.
Vui lòng kiểm tra xem đã đạt đến giới hạn tốc độ cuộc gọi giao diện chính thức hay chưa. Vui lòng tham khảo để biết chi tiết.
Kích thước tối đa cho một lần tải lên tài liệu hiện là 15MB. Ngoài ra còn có giới hạn tổng cộng 100 tài liệu. Những giới hạn này có thể được điều chỉnh nếu bạn đang sử dụng triển khai cục bộ. Tham khảo để biết chi tiết về việc thay đổi giới hạn.
Việc sử dụng cơ sở tri thức có liên quan đến việc mô tả tri thức đó hay không. Hãy viết phần mô tả kiến thức càng rõ ràng càng tốt. Vui lòng tham khảo để biết chi tiết.
ChatGPT Plus và API của mô hình GPT-4 của OpenAI là hai sản phẩm riêng biệt với cấu trúc giá cả riêng. Các API mô hình có cấu trúc giá cả riêng, xem để biết chi tiết. Để truy cập vào API của mô hình GPT-4, bạn cần thanh toán cho một chu kỳ thanh toán - việc chỉ có một phương thức thanh toán trên tệp và truy cập vào GPT-3.5 thông qua ChatGPT Plus không đủ. Vui lòng tham khảo để biết đầy đủ chi tiết về cách truy cập GPT-4.