官方博客:https://ollama.com/blog/web-search 官方文档:https://docs.ollama.com/web-search
为什么选择 Ollama Web Search?
在 AI 应用开发中,让模型具备联网搜索能力至关重要。然而,现有解决方案都有明显缺陷:📊 主流方案对比
| 方案 | 价格 | 优势 | 劣势 |
|---|---|---|---|
| 微软 Bing API | ¥108/千次 | 结果质量高 | 成本高昂 |
| Google API | ¥36/千次 | 生态成熟 | 价格较贵 |
| SearXNG | 免费 | 开源、隐私友好 | 部署复杂、结果不稳定、维护成本高 |
| Ollama Web Search | 免费 | 零成本、易用、AI 优化 | 有速率限制(可升级) |
💡 为什么不选 SearXNG?
虽然 SearXNG 开源免费,但实际使用中效果差强人意:- ❌ 部署复杂:需自建服务器、配置繁琐、处理反爬虫
- ❌ 质量不稳定:搜索相关性差、内容提取不准确、格式不统一
- ❌ 性能问题:响应慢、高并发易超时、需额外优化
✨ Ollama Web Search 的优势
✅ 完全免费:个人用户免费使用,慷慨的免费额度✅ 开箱即用:注册即用,无需部署维护
✅ 专为 AI 优化:返回格式友好,深度集成工具链
✅ 结果质量高:准确的内容提取,Markdown 格式输出
✅ 稳定可靠:无需自建服务,官方维护保障
核心特性
1. 增强模型能力
Web Search API 可以为 AI 模型补充最新的网络信息,解决以下问题:- 减少幻觉:通过实时网络数据验证,降低模型编造信息的可能性
- 提升准确性:获取最新的事实和数据,确保回答的时效性
- 扩展知识范围:突破训练数据的时间限制,获取最新信息
2. 多种集成方式
Ollama 提供了多种使用方式:- REST API(支持 cURL 调用)
- Python 库深度集成
- JavaScript 库深度集成
- MCP Server(Model Context Protocol)集成
3. 免费使用
Ollama Web Search 完全免费提供给用户使用,只需注册 Ollama 账号即可获得慷慨的免费额度。对于高频使用场景,可以升级订阅获得更高的速率限制。快速开始
创建 API Key
首先需要在 Ollama 账号中创建 API Key:- 访问 https://ollama.com 并登录
- 在账号设置中创建 API Key
- 保存你的 API Key
使用 cURL 调用
最简单的方式是通过 cURL 直接调用:使用 Python 库
安装 Ollama Python 库(需要 0.6.0 及以上版本):使用 JavaScript 库
安装 Ollama JavaScript 库:构建搜索代理
Web Search 的真正威力在于结合工具调用(Tool Calling)构建智能搜索代理。以下是一个完整的示例:准备工作
首先拉取一个支持工具调用的模型,这里使用阿里的 Qwen 3 模型(4B 参数):实现搜索代理
运行效果
推荐模型
对于搜索代理,推荐使用以下模型(它们具有出色的工具调用能力): 本地模型:qwen3gpt-oss
qwen3:480b-cloudgpt-oss:120b-clouddeepseek-v3.1-cloud
Web Fetch API
除了搜索,Ollama 还提供了web_fetch API 用于获取指定网页的内容。
API 请求
请求参数:url(必填):要获取的网页 URL
title:网页标题content:网页内容(Markdown 格式)links:网页中包含的链接列表
Python 示例
JavaScript 示例
cURL 示例
MCP Server 集成
Ollama Web Search 支持通过 MCP(Model Context Protocol)Server 集成到各种 AI 编程工具中。Cline 集成
在 Cline 的 MCP 服务器设置中添加配置:Codex 集成
在~/.codex/config.toml 中添加配置:
Goose 集成
Goose 也支持通过 MCP 扩展集成 Ollama Web Search。最佳实践
1. 上下文长度设置
Web Search 和 Web Fetch 可能返回数千个 token 的内容,建议:- 将模型的上下文长度设置为至少 32,000 tokens
- 使用完整上下文长度可以获得最佳的搜索代理效果
- Ollama 的云端模型默认运行在完整上下文长度
2. 控制搜索结果数量
通过max_results 参数控制返回的搜索结果数量:
3. 结合工具调用
将web_search 和 web_fetch 作为工具提供给模型,让模型自主决定何时需要搜索:
API 参考
Web Search API
端点:POST https://ollama.com/api/web_search
请求参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| query | string | 是 | 搜索查询字符串 |
| max_results | integer | 否 | 最大返回结果数(默认 5,最大 10) |
Web Fetch API
端点:POST https://ollama.com/api/web_fetch
请求参数:
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| url | string | 是 | 要获取的网页 URL |
应用场景
1. 实时信息查询
让 AI 模型能够回答关于最新事件、新闻、技术更新等问题。2. 研究助手
结合 OpenAI 的 gpt-oss 模型进行长时间的研究任务。3. 文档问答
获取特定网页内容并基于此回答问题。4. 代码助手增强
在 Cline、Codex 等 AI 编程工具中集成 Web Search,让 AI 助手能够:- 查找最新的库文档
- 搜索错误解决方案
- 获取示例代码
- 了解最佳实践
总结
Ollama Web Search API 为本地和云端 AI 模型带来了实时联网搜索能力,主要优势包括: ✅ 完全免费:个人用户免费使用,慷慨的免费额度,相比商业 API 节省数千至数万元 ✅ 易于集成:支持 REST API、Python、JavaScript 多种方式,无需复杂配置 ✅ 工具生态完善:深度集成到各种 AI 编程工具(Cline、Codex、Goose) ✅ 减少模型幻觉:通过实时网络信息验证,提高回答准确性 ✅ 强大的代理能力:结合工具调用构建智能搜索代理 ✅ 优于开源方案:相比 SearXNG,无需部署维护,结果质量更稳定,专为 AI 优化💰 成本对比
假设每月 30,000 次搜索查询,使用商业 API 的成本:- 微软 Bing API:¥3,240/月 → ¥38,880/年
- Google API:¥1,080/月 → ¥12,960/年
- Ollama Web Search:完全免费 🎉
参考资源
- 官方博客:https://ollama.com/blog/web-search
- 官方文档:https://docs.ollama.com/web-search
- Python 示例代码:https://github.com/ollama/ollama-python
- JavaScript 示例代码:https://github.com/ollama/ollama-js