Gemini
本文主要介绍如何在接口中配置 Gemini。
Google 的 Gemini 模型兼具大上下文窗口和快速推理,适合需要处理长历史或复杂指令的对话场景。Gemini 3.1 pro 在速度和能力之间达到了出色平衡,如果你需要成本效益高且多语言表现强的方案,它是可靠的选择。
使用方式
// json — LLMConfig{"LLMType": "openai","Model": "gemini-3.1-pro-preview","APIKey": "<your_gemini_api_key>","APIUrl": "https://generativelanguage.googleapis.com/v1beta/chat/completions","Streaming": true,"SystemPrompt": "","Timeout": 3.0,"History": 5,"MetaInfo": {}}
参数参考
字段 | 类型 | 必填 | 说明 |
LLMType | String | 是 | 固定值: "openai"(Gemini 使用 OpenAI 兼容协议)。 |
Model | String | 是 | |
APIKey | String | 是 | |
APIUrl | String | 是 | Gemini OpenAI 兼容 chat completions 端点。 |
Streaming | Boolean | 否 | 启用流式响应。默认值: true。 |
SystemPrompt | String | 否 | 系统指令,用于引导模型行为。 |
Timeout | Float | 否 | 超时时间(秒)。默认值:3。 |
History | Integer | 否 | 对话轮次作为上下文。默认值:0。最大值:50。 |
MetaInfo | Object | 否 | 自定义参数,会传入请求体中。 |