Feedback

Gemini

本文主要介绍如何在接口中配置 Gemini。
Google 的 Gemini 模型兼具大上下文窗口和快速推理,适合需要处理长历史或复杂指令的对话场景。Gemini 3.1 pro 在速度和能力之间达到了出色平衡,如果你需要成本效益高且多语言表现强的方案,它是可靠的选择。

使用方式

如需使用 Gemini 作为 LLM 引擎,请在 StartAIConversation API 的 LLMConfig 字段中传入以下 JSON。Gemini 使用 OpenAI 兼容协议:
// json — LLMConfig
{
"LLMType": "openai",
"Model": "gemini-3.1-pro-preview",
"APIKey": "<your_gemini_api_key>",
"APIUrl": "https://generativelanguage.googleapis.com/v1beta/chat/completions",
"Streaming": true,
"SystemPrompt": "",
"Timeout": 3.0,
"History": 5,
"MetaInfo": {}
}
完整 Conversational AI 配置(STT、TTS、打断处理、VAD 等),请参阅 TRTC Conversational AI API 参考

参数参考

字段
类型
必填
说明
LLMType
String
固定值:"openai"(Gemini 使用 OpenAI 兼容协议)。
Model
String
模型:gemini-3.1-pro-previewgemini-3-flash-preview 等。请参阅 Gemini 模型
APIKey
String
你的 Gemini API 密钥。请从 Google AI Studio 获取。
APIUrl
String
Gemini OpenAI 兼容 chat completions 端点。
Streaming
Boolean
启用流式响应。默认值:true
SystemPrompt
String
系统指令,用于引导模型行为。
Timeout
Float
超时时间(秒)。默认值:3。
History
Integer
对话轮次作为上下文。默认值:0。最大值:50。
MetaInfo
Object
自定义参数,会传入请求体中。
更多 Gemini 模型和 API 的详细信息,请参阅 Google Gemini 文档
下一步:配置 TTS 提供商