Skip to content

API Key 配置 🔑

配置 AI 模型,解锁本站所有 LangGraph 代码的一键运行功能。

📝 配置步骤

通过下方级联菜单,选择服务商 → 模型 → 填写 API Key,即可解锁代码运行功能。

  • 通用模型:用于所有代码示例(OpenAI SDK、LangChain 等)
  • DeepAgent 模型:用于 LangGraph DeepAgent 多智能体系统

🧪 通用模型配置

用于所有代码示例(ChatOpenAI、OpenAI SDK、ChatDeepSeek 等)

🤖 DeepAgent 模型配置

用于 LangGraph DeepAgent 多智能体系统
⚠️ 尚未配置
请先至少配置通用模型,才能运行代码示例
💡 如何获取 API Key:
OpenAI: 访问 OpenAI Platform
DeepSeek: 访问 DeepSeek Platform
Kimi (Moonshot): 访问 Moonshot 开放平台
Anthropic: 访问 Anthropic Console
通义千问: 访问 阿里云百炼
智谱 GLM: 访问 智谱 AI 开放平台

🔒 安全说明: 所有 API Key 仅保存在您的浏览器本地,不会上传到服务器

✅ 验证 API Key

保存配置后,运行以下示例验证是否成功。

示例 1:流式输出测试(逐字显示 LLM 回复)

python
import os
from openai import OpenAI

# 自动使用你配置的服务商和模型
client = OpenAI(
    api_key=os.environ.get("CUSTOM_API_KEY") or os.environ.get("OPENAI_API_KEY"),
    base_url=os.environ.get("CUSTOM_BASE_URL", "https://api.openai.com/v1")
)

model = os.environ.get("CUSTOM_MODEL_NAME", "gpt-4o-mini")

# stream=True 启用流式输出,配合后端 SSE 实时推送每个 token
stream = client.chat.completions.create(
    model=model,
    messages=[{"role": "user", "content": "你好,请用一句话介绍你自己!"}],
    stream=True
)

print(f"[{model}] ", end="", flush=True)
for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
print()

示例 2:使用 DeepSeek 模型

python
import os
from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
    model="deepseek-chat",
    api_key=os.environ.get("DEEPSEEK_API_KEY")
)
response = llm.invoke("用一句话介绍 LangChain")
print(response.content)

示例 3:LangGraph 简单图

创建一个最简单的 LangGraph 图,实现问答功能:

python
import os
from langgraph.graph import StateGraph, START, END
from langchain_openai import ChatOpenAI
from typing import TypedDict

class State(TypedDict):
    question: str
    answer: str

def answer_node(state: State):
    llm = ChatOpenAI(
        model="gpt-4o-mini",
        api_key=os.environ.get("OPENAI_API_KEY")
    )
    response = llm.invoke(state["question"])
    return {"answer": response.content}

graph = StateGraph(State)
graph.add_node("answer_node", answer_node)
graph.add_edge(START, "answer_node")
graph.add_edge("answer_node", END)

app = graph.compile()
result = app.invoke({"question": "什么是 LangGraph?"})
print(result["answer"])

示例 4:使用 Anthropic Claude 模型(DeepAgent)

python
import os
from langchain_anthropic import ChatAnthropic

llm = ChatAnthropic(
    model="claude-sonnet-4-5",
    api_key=os.environ.get("ANTHROPIC_API_KEY")
)
response = llm.invoke("用一句话介绍 LangGraph")
print(response.content)

🔧 OpenAI 兼容模型参考 (2026)

所有标记 OpenAI 兼容的服务商,都可以通过 base_url + model 参数切换:

服务商base_url常用模型
OpenAIhttps://api.openai.com/v1gpt-5.2, gpt-5.1, gpt-5, gpt-5-mini, gpt-5-nano, gpt-5.2-pro
DeepSeekhttps://api.deepseek.comdeepseek-chat (V3.2), deepseek-reasoner
Kimihttps://api.moonshot.ai/v1kimi-k2.5, kimi-k2-0905-Preview, kimi-k2-thinking
Anthropichttps://api.anthropic.comclaude-sonnet-4-5, claude-haiku-4-5, claude-opus-4-5
通义千问https://dashscope.aliyuncs.com/compatible-mode/v1qwen3-max, qwen-max, qwen-plus
智谱 GLMhttps://open.bigmodel.cn/api/paas/v4glm-4-plus, glm-4, glm-4-flash
硅基流动https://api.siliconflow.cn/v1deepseek-ai/DeepSeek-V3, deepseek-ai/DeepSeek-R1

📚 开始学习

配置完成后,访问教程页面开始学习:

基于 MIT 许可证发布。内容版权归作者所有。