New API 使用指南
n8n 配置教程
使用 n8n 的 HTTP Request 节点调用 CherryIN API,适用于工作流和自动化场景
为什么推荐 HTTP Request 节点?
n8n 自带 OpenAI 节点,但不同版本的字段和能力会有差异。为了让教程尽量通用、稳定,这里优先使用官方文档同样推荐的 HTTP Request 节点来接入 CherryIN。
这样做有两个好处:
- 几乎所有 n8n 版本都能照着配置
- 你可以完全控制请求地址、请求体和模型 ID
开始之前
请先准备:
- 一个可用的 n8n 实例
- CherryIN API Key
- 一个模型 ID,例如
anthropic/claude-sonnet-4.5
配置步骤
创建 Bearer Auth 凭据
先新增一个通用的 Bearer Auth 凭据,把你的 CherryIN Key 填进去。
如果你的界面里需要你手动理解这个字段,本质上它会发送:
Authorization: Bearer sk-xxxxxxxx新建 Chat Completions 请求
添加一个 HTTP Request 节点,按下面填写:
| 字段 | 填写内容 |
|---|---|
Method | POST |
URL | https://open.cherryin.net/v1/chat/completions |
Authentication | Bearer Auth |
Content-Type | application/json |
请求体可先用最简单的测试版本:
{
"model": "anthropic/claude-sonnet-4.5",
"messages": [
{
"role": "user",
"content": "你好,请用一句话介绍 CherryIN。"
}
]
}执行节点后,如果返回了模型回复,就说明已经通了。
在工作流里引用上游数据
接通之后,就可以把前面节点的数据拼进请求体里。例如:
{
"model": "google/gemini-2.5-flash",
"messages": [
{
"role": "user",
"content": "请总结以下文本:{{$json.content}}"
}
]
}这样你就能把表单、数据库、网页抓取结果或其他节点产出的内容交给 CherryIN 模型处理。
GPT-5.x 模型怎么接?
如果你要在 n8n 里调用 GPT-5.x 系列模型,建议改用 Responses API:
| 字段 | 填写内容 |
|---|---|
Method | POST |
URL | https://open.cherryin.net/v1/responses |
Authentication | Bearer Auth |
Content-Type | application/json |
请求体示例:
{
"model": "openai/gpt-5.2-chat",
"input": "请把这段内容整理成 3 个要点:{{$json.content}}"
}为什么这里改用 Responses API?
GPT-5.x 系列模型不建议走 Chat Completions。如果你在 n8n 里直接手动发 HTTP 请求,最稳妥的方式就是切到 /v1/responses。
常见问题
返回 401
通常是 Bearer Token 没填对,或者 API Key 前后带了空格。
返回 404
先检查 URL 是否完整:
- Chat Completions:
https://open.cherryin.net/v1/chat/completions - Responses API:
https://open.cherryin.net/v1/responses
表达式没有生效
请确认你填写的是 n8n 的表达式语法,例如 {{$json.content}},并且节点使用的是 JSON 请求体模式。
下一步
- 想先了解通用接入逻辑:看 OpenAI 兼容接入指南
- 想做应用编排:看 Dify 配置教程
CherryIN