大模型配置

本文主要介绍如何在 Conversational AI 会话中配置 LLM 模块。
用户语音被转写成文本后,LLM 模块对输入进行处理并生成契合上下文的回复。TRTC 的灵活框架支持接入任意主流 LLM——包括 OpenAI 兼容模型以及 Dify、Coze 等智能体平台——你可以根据具体场景选择最适合的引擎。端到端会话延迟在全球范围内低于 1 秒,用户几乎感受不到回复延迟。只需通过 LLMConfig 对象配置连接信息,指定模型、API 凭证以及可选参数(如系统提示词和对话历史轮次)即可。

可用提供商

提供商
模型
集成方式
适用场景
OpenAI
gpt-5.5gpt-5.4gpt-4o-mini
OpenAI 兼容
顶级推理能力、多模态
Gemini
gemini-3.1-pro-previewgemini-3-flash-preview
OpenAI 兼容
大上下文窗口、成本效益
MiniMax
MiniMax-M2.7MiniMax-M2.5
OpenAI 兼容
中文场景、竞争力定价
hunyuan-2.0-thinking-20251109hunyuan-2.0-instruct-20251111
OpenAI 兼容
腾讯云生态、成本竞争力
Dify
任意 LLM(可配置)
平台
No-code AI 工作流、RAG
Coze
任意 LLM(可配置)
平台
No-code 机器人搭建、插件
说明:
OpenAI 兼容提供商(OpenAI、Gemini、MiniMax、Hunyuan)共用统一配置结构。平台提供商(Dify、Coze)有各自独立的配置方式——请参阅各子页面了解详情。
完整 LLM 参数参考,请参阅 TRTC Conversational AI API 参考

LLM HTTP 请求头

TRTC 会自动在每个 LLM 请求中添加以下头字段,可用于日志记录、路由或调试:
X-Task-Id: <task_id_value> // 任务 ID
X-Request-Id: <request_id> // 请求 ID(重试时保持一致)
X-Sdk-App-Id: SdkAppId
X-User-Id: UserId
X-Room-Id: RoomId
X-Room-Id-Type: "0" // "0" = 数字型,"1" = 字符串型

请求头说明

请求头
说明
X-Task-Id
当前 AI 会话的唯一任务标识符。
X-Request-Id
请求标识符,同一请求重试时保持一致。
X-Sdk-App-Id
你的 TRTC 应用的 SdkAppId。
X-User-Id
当前会话中的用户 ID。
X-Room-Id
当前 TRTC 会话的房间 ID。
X-Room-Id-Type
房间 ID 类型。"0" = 数字型,"1" = 字符串型。
说明:
当你需要通过代理或日志服务对 LLM 请求进行追踪或路由时,这些头字段非常有用。