大模型配置
本文主要介绍如何在 Conversational AI 会话中配置 LLM 模块。
用户语音被转写成文本后,LLM 模块对输入进行处理并生成契合上下文的回复。TRTC 的灵活框架支持接入任意主流 LLM——包括 OpenAI 兼容模型以及 Dify、Coze 等智能体平台——你可以根据具体场景选择最适合的引擎。端到端会话延迟在全球范围内低于 1 秒,用户几乎感受不到回复延迟。只需通过 LLMConfig 对象配置连接信息,指定模型、API 凭证以及可选参数(如系统提示词和对话历史轮次)即可。
可用提供商
提供商 | 模型 | 集成方式 | 适用场景 |
gpt-5.5、gpt-5.4、gpt-4o-mini 等 | OpenAI 兼容 | 顶级推理能力、多模态 | |
gemini-3.1-pro-preview、gemini-3-flash-preview 等 | OpenAI 兼容 | 大上下文窗口、成本效益 | |
MiniMax-M2.7、MiniMax-M2.5 等 | OpenAI 兼容 | 中文场景、竞争力定价 | |
hunyuan-2.0-thinking-20251109、hunyuan-2.0-instruct-20251111 等 | OpenAI 兼容 | 腾讯云生态、成本竞争力 | |
任意 LLM(可配置) | 平台 | No-code AI 工作流、RAG | |
任意 LLM(可配置) | 平台 | No-code 机器人搭建、插件 |
说明:
OpenAI 兼容提供商(OpenAI、Gemini、MiniMax、Hunyuan)共用统一配置结构。平台提供商(Dify、Coze)有各自独立的配置方式——请参阅各子页面了解详情。
LLM HTTP 请求头
TRTC 会自动在每个 LLM 请求中添加以下头字段,可用于日志记录、路由或调试:
X-Task-Id: <task_id_value> // 任务 IDX-Request-Id: <request_id> // 请求 ID(重试时保持一致)X-Sdk-App-Id: SdkAppIdX-User-Id: UserIdX-Room-Id: RoomIdX-Room-Id-Type: "0" // "0" = 数字型,"1" = 字符串型
请求头说明
请求头 | 说明 |
X-Task-Id | 当前 AI 会话的唯一任务标识符。 |
X-Request-Id | 请求标识符,同一请求重试时保持一致。 |
X-Sdk-App-Id | 你的 TRTC 应用的 SdkAppId。 |
X-User-Id | 当前会话中的用户 ID。 |
X-Room-Id | 当前 TRTC 会话的房间 ID。 |
X-Room-Id-Type | 房间 ID 类型。 "0" = 数字型,"1" = 字符串型。 |
说明:
当你需要通过代理或日志服务对 LLM 请求进行追踪或路由时,这些头字段非常有用。