Skip to content

API 指南

玄武CLI提供与 OpenAI API 完全兼容的 HTTP 端点。

配置客户端

API 服务器默认监听 http://localhost:11581,所有路径以 /v1 为前缀。

Python (OpenAI SDK)

python
from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:11581/v1",
    api_key="not-needed"  # 必填但内容任意
)

注意,玄武CLI需要提前通过xw start或者xw run启动相应的模型,才能够在端点访问对应的模型。您可以通过xw ps查看正在运行的模型,以及获取对应模型的model name。

Chat Completions

POST /v1/chat/completions

请求示例

bash
curl http://localhost:11581/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2-7b",
    "messages": [{"role": "user", "content": "你好!"}],
    "stream": false
  }'

核心参数

参数类型说明
modelstring模型名称 (必需)
messagesarray对话历史 (必需)
streamboolean是否流式响应
temperaturenumber输出随机性
max_tokensinteger最大生成长度

流式响应

设置 stream: true 启用流式输出,返回 Server-Sent Events 格式。

Python 示例

python
stream = client.chat.completions.create(
    model="qwen2-7b",
    messages=[{"role": "user", "content": "写一首关于月亮的诗。"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content is not None:
        print(chunk.choices[0].delta.content, end="")

流以 data: [DONE] 结束。

工具集成

任何支持配置 OpenAI API Base URL 的工具都可以与玄武CLI集成。详见 进阶-第三方工具集成

基于 Apache 2.0 许可发布