DeepSeek R1 的突破性进展
DeepSeek R1 是一个专注于推理能力的大模型,其最大的特点是采用了”思维链”(Chain of Thought)技术。与传统的 GPT-4 和 DeepSeek V3 相比,R1 在以下方面有显著优势:- 推理过程可视化:不同于通用模型的”黑盒”输出,R1 会展示完整的思维推理过程,让用户能够理解模型是如何得出结论的。
- 强化学习突破:通过大规模强化学习技术,R1 在仅有少量标注数据的情况下,就达到了与 OpenAI O1 相当的推理能力。这一点尤其难得,因为 O1 被认为是目前最强的推理模型。
- 性能对标:在数学、代码和自然语言推理等任务上,R1 已经能够对标 OpenAI O1 正式版。这意味着在复杂推理任务上,R1 可以作为 O1 的有力开源替代。
R1 vs V3:写作能力对比
如下图所示,相比通用型的 DeepSeek V3,R1 在结构化写作和逻辑推理方面表现出明显优势:
开源与生态优势
与 OpenAI O1 和 GPT-4 的封闭特性不同,DeepSeek R1 选择了开源路线:- 完整开源:提供了 660B 参数的完整模型,包括 DeepSeek-R1-Zero 和 DeepSeek-R1
- 蒸馏小模型:通过模型蒸馏技术,开源了 6 个小模型,其中 32B 和 70B 版本在多项能力上已经对标 O1-mini
- MIT License:采用最宽松的开源协议,允许商用和二次开发,甚至支持通过蒸馏技术训练新模型
Spring AI 集成实践
下面我们通过一个简单的示例来展示如何使用 Spring AI 集成 DeepSeek Reasoner 模型。添加依赖
首先在 pom.xml 中添加 Spring AI 依赖:配置文件
在 application 中配置 DeepSeek API 相关信息:处理 Temperature 参数问题
需要注意的是,作为专注推理的模型,DeepSeek Reasoner 不支持 temperature 参数(这与 O1 类似,都是为了保证推理结果的稳定性)。但 Spring AI 默认会添加此参数,这会导致如下错误:创建控制器
创建一个简单的 REST 控制器来处理 AI 对话请求:DeepSeek Reasoner API 特点
-
输入参数
- max_tokens:最终回答的最大长度(不含思维链输出),默认为 4K,最大为 8K
- 思维链输出最多可达 32K tokens
- 不支持 temperature 参数(默认固定为 0.7)
-
输出字段
- reasoning_content:思维链内容
- content:最终回答内容
-
上下文长度
- API 最大支持 64K 上下文
- 输出的 reasoning_content 长度不计入 64K 上下文长度中
-
定价说明
- 输入 tokens:1元/百万tokens(缓存命中)或 4元/百万tokens(缓存未命中)
- 输出 tokens:16元/百万tokens
使用场景对比
在不同场景下,R1、GPT-4 和 V3 各有优势:-
复杂推理任务
- R1/O1:通过思维链提供详细推理过程,适合数学证明、逻辑推理
- GPT-4:通用性强但推理过程不透明
- V3:更适合创意写作和开放性对话
-
教育场景
- R1/O1:能展示完整解题思路,适合教学辅导
- GPT-4:擅长通用知识讲解
- V3:适合生动有趣的知识普及
-
编程开发
- R1/O1:在算法设计和复杂逻辑实现上更有优势
- GPT-4:代码生成能力强
- V3:适合简单的代码补全和修改
定价优势
相比 Open AI O1,DeepSeek R1 的定价更具竞争力:- 输入 tokens:1元/百万tokens(缓存命中)或 4元/百万tokens(缓存未命中)
- 输出 tokens:16元/百万tokens