Qwen2.5-72B
Qwen2.5 旗舰 Dense 模型,长文本能力强,稳定可靠
Dense72B128K context
bash
xw run qwen2.5-72bbash
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5-72b",
"messages": [{"role": "user", "content": "Hello"}]
}'Models
| 名称 | 量化 | 大小 | 引擎 | 平台 |
|---|---|---|---|---|
qwen2.5-72b | BF16 | ~144GB | MindIE | Ascend |
qwen2.5-72b:bf16 | BF16 | ~144GB | MindIE | Ascend |
qwen2.5-72b:i8 | W8A8 | ~72GB | MindIE | Ascend |
qwen2.5-72b:f8 | FP8 | ~72GB | MindIE | Ascend |
qwen2.5-72b:i4 | INT4 | ~36GB | MindIE | Ascend |
qwen2.5-72b:bf16:mlguider | BF16 | ~144GB | MLGuider | Ascend |
qwen2.5-72b:i8:mlguider | W8A8 | ~72GB | MLGuider | Ascend |
qwen2.5-72b:bf16:vllm | BF16 | ~144GB | VLLM | Ascend |
qwen2.5-72b:i8:vllm | W8A8 | ~72GB | VLLM | Ascend |
qwen2.5-72b:i4:vllm | INT4 | ~36GB | VLLM | Ascend |
qwen2.5-72b:bf16:vllm | BF16 | ~144GB | VLLM | MACA |
qwen2.5-72b:i8:vllm | W8A8 | ~72GB | VLLM | MACA |
qwen2.5-72b:bf16:sglang | BF16 | ~144GB | SGLang | Ascend |
简介
Qwen2.5-72B 是 Qwen2.5 系列的旗舰 Dense 模型,72B 参数量,原生支持 128K 上下文。在代码生成、数学推理、长文本理解等任务上表现出色,是经过大规模生产验证的稳定选择。
核心特性
- 大参数量:72B Dense 架构,综合能力强
- 长上下文:原生支持 128K tokens
- 稳定可靠:Qwen2.5 系列,经过广泛验证
- 多语言支持:支持 29 种语言

