Trong tương tác của chúng ta với các ứng dụng trí tuệ nhân tạo, chúng thường có các yêu cầu nghiêm ngặt về bảo mật nội dung, trải nghiệm người dùng và các quy định pháp lý. Tại thời điểm này, chúng ta cần tính năng "Xem Xét Từ Nhạy Cảm" để tạo ra một môi trường tương tác tốt hơn cho người dùng cuối. Trên trang điều phối câu hỏi, nhấp vào "Thêm Tính Năng" và tìm "Hộp công cụ Xem Xét Nội Dung" ở dưới cùng:
Bây giờ bạn cũng có thể gọi trực tiếp API Kiểm Duyệt của OpenAI trên ChatX; bạn có thể xem xét nội dung đầu vào hoặc đầu ra chỉ bằng cách nhập "phản hồi mẫu" tương ứng.
Các nhà phát triển có thể tùy chỉnh các từ nhạy cảm mà họ cần xem xét, chẳng hạn như sử dụng "giết" như một từ khóa để thực hiện hành động kiểm duyệt khi người dùng nhập vào. Nội dung phản hồi mẫu nên là "Nội dung vi phạm chính sách sử dụng." Có thể dự đoán rằng khi một người dùng nhập một đoạn văn bản chứa từ "giết" vào terminal, nó sẽ kích hoạt công cụ kiểm duyệt từ nhạy cảm và trả về nội dung phản hồi mẫu.
OpenAI, cùng với hầu hết các công ty cung cấp Mô hình Ngôn ngữ Học sâu (LLMs), bao gồm các tính năng kiểm duyệt nội dung trong các mô hình của họ để đảm bảo rằng các đầu ra không chứa nội dung gây tranh cãi, chẳng hạn như bạo lực, nội dung tình dục và các hoạt động bất hợp pháp. Ngoài ra, OpenAI đã làm cho tính năng kiểm duyệt nội dung này có sẵn, mà bạn có thể tham khảo tại .
Các doanh nghiệp khác nhau thường có cơ chế riêng cho việc kiểm duyệt từ nhạy cảm. Khi phát triển các ứng dụng trí tuệ nhân tạo riêng, chẳng hạn như một ChatBot cơ sở kiến thức nội bộ, các doanh nghiệp cần kiểm duyệt nội dung truy vấn mà nhân viên nhập vào để tìm từ nhạy cảm. Với mục đích này, các nhà phát triển có thể viết một phần mở rộng API dựa trên cơ chế kiểm duyệt từ nhạy cảm nội bộ của doanh nghiệp của họ, cụ thể là , sau đó có thể được gọi trên ChatX để đạt được mức độ tùy chỉnh cao và bảo vệ quyền riêng tư cho việc xem xét từ nhạy cảm.