Trợ lý tri thức
Hỏi đáp dựa trên tài liệu nội bộ

Xin chào!

Đặt câu hỏi về tài liệu của công ty. Tôi sẽ tìm kiếm và tổng hợp câu trả lời từ nguồn chính xác.

Enter gửi · Shift+Enter xuống dòng

Cấu hình hệ thống

LLM
Thấp = chính xác hơn · Cao = sáng tạo hơn
Query Analyzer
Model phân tích intent — nên dùng model nhỏ, nhanh
JSON array — thêm intent mới không cần restart server
Embedding
Đổi model cần re-embed toàn bộ tài liệu
Địa chỉ embedding service đang chạy
Chunking
Lớn hơn = nhiều context hơn, nhưng embedding kém chính xác hơn
Retrieval
Số chunks đưa vào context của LLM
Thấp hơn = lấy nhiều chunk hơn, có thể kém liên quan
Dịch câu hỏi tiếng Việt sang tiếng Anh trước khi search
System Prompt
Nguy hiểm
Cần chạy lại khi đổi embedding model