FAQ
安装与环境
如何验证玄武CLI安装是否成功?
bash
xw --version它会输出xw当前安装的版本。
支持哪些操作系统?
目前xw只支持Linux系统,具体操作系统要求见入门-硬件支持
需要安装 CANN 吗?
不需要。玄武CLI直接使用国产硬件的原生驱动,CANN 由玄武CLI 自己维护。
模型
可以使用 Ollama 的模型吗?
不能直接使用。玄武CLI和 Ollama 使用不同的模型格式。如需特定模型支持,请提交 Issue。
如何加速首次加载?
提前下载模型:
bash
xw pull qwen3-8b可以在 CPU 上运行吗?
当前版本不支持 CPU 推理。玄武CLI专为国产加速卡设计。
如何查看支持哪些模型?
可通过以下指令查看本地模型:
bash
xw list # 本地模型
xw show <model> # 模型详情所有支持的模型可以看模型仓库。
多 GPU
如何处理超大模型?
玄武CLI自动使用张量并行:
bash
xw run minimax-m2.1 # 自动选择并行策略
xw run minimax-m2.1 --tp 4 # 显式指定如何选择 GPU 设备?
bash
xw run <model> --device 0,1API
API 与 OpenAI 有什么区别?
完全兼容 OpenAI API,但:
- 不需要 API Key (设置任意值即可)
- 本地运行,无网络延迟
- 支持国产硬件
可以同时运行多个模型吗?
可以。每个请求指定不同 model 参数,玄武CLI自动管理模型加载和切换。
性能
模型启动时间长
根据不同的模型和引擎,启动时间有差异,一般在 10 分钟以内。
模型运行很慢
检查使用的引擎:
bash
xw ps检查该模型服务对应的logs:
bash
xw logs <model>不同引擎在不同硬件组合下表现有差异,可尝试手工更换引擎。
排查步骤:
- 确认驱动正常:
npu-smi info(昇腾) - 检查 GPU 是否被其他进程占用
功能
支持量化模型吗?
支持 FP16/BF16/INT8/W8A8/W4A8 量化格式。各模型支持的量化种类不一样,详见模型列表。
支持多模态吗?
支持 LLM、VLM 等模型推理,文生图/文生视频正在开发中。
社区与支持
如何报告 Bug?
GitHub Issues: github.com/TsingmaoAI/xw-cli
请包含:
- 玄武CLI版本:
xw version - 系统版本与驱动版本:
uname -r,npu-smi info - 复现步骤
了解更多?
- 关注清昴智能公众号:微信搜索「清昴智能」
- 加入讨论群:



- 联系团队:mlguider@tsingmao.com

