Tencent Hunyuan
本文主要介绍如何在接口中配置腾讯 Hunyuan。
// json — LLMConfig{"LLMType": "openai","Model": "hunyuan-2.0-thinking-20251109","APIKey": "<your_hunyuan_api_key>","APIUrl": "https://hunyuan.cloud.tencent.com/openai/v1/chat/completions","Streaming": true,"SystemPrompt": "You are a helpful assistant.","Timeout": 3.0,"History": 10,"MetaInfo": {}}
参数参考
字段 | 类型 | 必填 | 说明 |
LLMType | String | 是 | 固定值: "openai"。 |
Model | String | 是 | |
APIKey | String | 是 | |
APIUrl | String | 是 | Hunyuan OpenAI 兼容端点。 |
Streaming | Boolean | 否 | 启用流式响应。默认值: true。 |
SystemPrompt | String | 否 | 系统指令,用于引导模型行为。 |
Timeout | Float | 否 | 超时时间(秒)。默认值:3。 |
History | Integer | 否 | 对话轮次作为上下文。默认值:0。最大值:50。 |
MetaInfo | Object | 否 | 自定义参数,会传入请求体中。 |