Skip to main content
全世界等了一个月,Qwen3 它终于来了! 模型特色:思考更深,速度更快
  • Qwen3 是全球最强开源模型,性能全面超越 DeepSeek R1,国内第一个敢说全面超越 R1 的模型,之前都是比肩
  • Qwen3 是国内首个混合推理模型,复杂答案深度思考,简单答案直接秒回,自动切换,提升智力+节省算力双向奔赴
  • 模型部署要求大幅降低,旗舰模型仅需4张H20就能本地部署,部署成本估算下来是能比R1下降超6成
  • Agent 能力大幅提升,原生支持 MCP 协议,提升了代码能力,国内的 Agent 工具都在等它
  • 支持119种语言和方言,包括爪哇语、海地语等地方性语言,全世界都可以用上 AI
  • 训练数据 36 万亿 token,相比 Qwen2.5 直接翻倍,不仅从网络抓取内容,还大量提取 PDF 的内容、大量合成代码片段
  • 模型部署要求大幅降低,旗舰模型仅需4张H20就能本地部署,是 R1 的三分之一
 ~ ollama --version
ollama version is 0.6.6
1745882737

openrouter 满血版免费使用

1745882827 提供了一种软切换机制,允许用户在 enable_thinking=True 时动态控制模型的行为。具体来说,您可以在用户提示或系统消息中添加 /think 和 /no_think 来逐轮切换模型的思考模式。在多轮对话中,模型会遵循最近的指令。以下是一个多轮对话的示例:

推理模式

1745883081

非推理模式

1745883300 全世界等了一个月,Qwen3 它终于来了! 1745882737
模型特色:思考更深,速度更快
  • Qwen3 是全球最强开源模型之一,其旗舰模型 Qwen3-235B-A22B 在编码、数学、通用能力等基准评估中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,取得了具有竞争力的结果。
  • 小型 MoE 模型 Qwen3-30B-A3B 的性能优于 QwQ-32B,而激活参数仅为其十分之一;即使是像 Qwen3-4B 这样的小型模型,也能与 Qwen2.5-72B-Instruct 的性能相媲美。
  • 独特支持在单一模型内无缝切换**“思考模式”(用于复杂逻辑推理、数学和编码)和”非思考模式”**(用于高效通用对话),确保在各种场景下都能获得最佳性能。(您可以在用户提示或系统消息中添加 /think/no_think 来逐轮切换)
  • 推理能力显著增强,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ(思考模式)和 Qwen2.5 instruct 模型(非思考模式)。
  • 优越的人类偏好对齐,在创意写作、角色扮演、多轮对话和指令遵循方面表现出色,提供更自然、引人入胜和沉浸式的对话体验。
  • 卓越的 Agent 能力,能够在思考和非思考模式下精确集成外部工具,并在复杂的基于 Agent 的任务中达到开源模型的领先水平。原生支持 MCP 协议。
  • 支持 100+ 种语言和方言 (官方文档数据,实际宣称119种),具有强大的多语言指令遵循和翻译能力。包括爪哇语、海地语等地方性语言,全世界都可以用上 AI
  • 训练数据 36 万亿 token,相比 Qwen2.5 直接翻倍,不仅从网络抓取内容,还大量提取 PDF 的内容、大量合成代码片段
  • 模型部署要求大幅降低,旗舰模型仅需4张H20就能本地部署,是 R1 的三分之一
1745885806

模型列表与运行

运行这些模型需要 Ollama 0.6.6 或更高版本。
 ~ ollama --version
ollama version is 0.6.6
0.6B 参数模型
ollama run qwen3:0.6b
8B 参数模型
ollama run qwen3:8b
14B 参数模型 (14.8B 参数, Q4_K_M 量化, 约 9.3GB)
ollama run qwen3:14b
32B 参数模型
ollama run qwen3:32b
30B 混合专家模型 (3B 激活参数)
ollama run qwen3:30b-a3b
235B 混合专家模型 (22B 激活参数)
ollama run qwen3:235b-a22b

openrouter 满血版免费使用

1745882827
curl https://openrouter.ai/api/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $OPENROUTER_API_KEY" \
  -d '{
  "model": "qwen/qwen3-235b-a22b:free",
  "messages": [
    {
      "role": "user",
      "content": "What is the meaning of life?"
    }
  ]
}'

推理模式

提供了一种软切换机制,允许用户在 enable_thinking=True 时动态控制模型的行为。具体来说,您可以在用户提示或系统消息中添加 /think 和 /no_think 来逐轮切换模型的思考模式。在多轮对话中,模型会遵循最近的指令。
1745883081

非推理模式

1745883300

总结

笔者在PIG AI 原有业务 function calling 、json 的相关场景下测试 qwen3-235b-a22b 满血版本,仅是个人主观测试结果。在复杂的图表处理比如 Chat2BI 的场景下,Qwen3 能力相较于 DeepSeek V3-0324 略显不足,指令遵循效果一般(测试时保持了与 deepseek v3 相同的温度等参数设置)。 本次测试使用的是 openrouter 提供的API接口,这只是初步体验,期待阿里百炼后续优化,届时将进行更全面的评测。