Deep Research as a Service:把 AI 深度研究做成产品
> 来源: 内部方案讨论 + inference.sh 技术调研
> 日期: 2026-04-04
> 类型: 产品设计方案
> 状态: 概念设计阶段
🎯 一句话版本
我们已经跑了 290+ 篇 AI 深度研究报告,现在要把这个能力产品化——用户丢一个链接进来,AI 自动抓取、搜索补充资料、生成专业级研究报告。考虑用 inference.sh 做后端运行时快速验证。
为什么做这件事?
已验证的能力
过去几个月,我们用 OpenClaw + Claude Opus 在 Discord 频道里跑了一套 deep-research 流程:
| 指标 | 数据 |
|---|---|
| 已产出报告 | 290+ 篇 |
| 平均生成时间 | 2-5 分钟/篇 |
| 覆盖话题 | AI infra / 区块链 / 开发者工具 / 开源项目 |
| 发布平台 | [temp.jaylab.io](https://temp.jaylab.io/) |
| 报告质量 | 平均 8.0/10(自评) |
核心流程:
链接 → web_fetch 抓取 → web_search 补充 → Claude 生成报告
→ 保存 Markdown → 部署到 Cloudflare Pages → 回复用户
这套流程已经稳定运行,问题是:只有我们自己在用。
市场信号
- Perplexity:估值 $90 亿,做的就是"AI 搜索+研究"
- Genspark:$280M 融资,AI agent 搜索引擎
- ChatGPT Deep Research:OpenAI 内置,但不可定制
- 麦当劳 MCP:连快餐品牌都在拥抱 AI Agent 协议——"被 Agent 发现"是新的 SEO
我们的差异化:深度。不是搜索结果的拼贴,而是带分析、评分、关联性讨论的研究报告。
产品形态
用户怎么用?
Phase 1 — Web UI
用户打开网站 → 粘贴链接 → 选择研究深度 → 等 2-5 分钟 → 看报告
Phase 2 — API
import deepresearch
report = deepresearch.analyze("https://github.com/some/project")
print(report.summary) # 一句话版本
print(report.markdown) # 完整报告
print(report.score) # 综合评分
Phase 3 — MCP Server
{
"mcpServers": {
"deep-research": {
"type": "streamablehttp",
"url": "https://api.deepresearch.ai/mcp",
"headers": { "Authorization": "Bearer TOKEN" }
}
}
}
任何 MCP 客户端(Claude Desktop、Cursor、OpenClaw)都能直接调用。
报告包含什么?
基于我们 290+ 篇报告的积累,标准模板:
1. 一句话版本 — 让非技术人员也能秒懂
2. 核心内容 — 是什么、解决什么问题
3. 技术分析 — 架构、实现、优劣
4. 评分表 — 创意/实用性/技术/生态/透明度
5. 关联分析 — 这东西跟你的项目有什么关系(可定制)
6. 关键链接 — 所有原始来源
技术架构
方案对比
| inference.sh | 自建 (VPS+Queue) | CF Workers | |
|---|---|---|---|
| 开发时间 | 1-2 周 | 4-6 周 | 3-4 周 |
| 运维 | 零(托管) | 需自管 | 低 |
| 扩容 | 自动 | 手动 | 自动 |
| 成本/篇 | ~$0.15 | ~$0.10 | ~$0.10 |
| 控制权 | 低 | 高 | 中 |
| Durable Execution | ✅ 内建 | 需自建 | ❌ 受限 |
| 可观测性 | ✅ Execution Graph | 需自建 | ❌ 有限 |
| 多用户隔离 | ✅ 内建 | 需自建 | 需自建 |
推荐路径:inference.sh MVP → 自建迁移
阶段 1:用 inference.sh 快速验证(1-2 周)
inference.sh Agent: "deep-researcher"
├── Tool: web-fetch (自建 App)
├── Tool: web-search (内置 Tavily/Exa)
├── Tool: analyze (自建 App, 调用 LLM)
└── Output: Markdown 报告
inference.sh 提供:
- 多用户隔离(每个用户独立 session)
- Durable execution(长任务不掉线)
- Managed OAuth(如果未来需要)
- 内建聊天 UI(开箱即用的前端)
- API 自动生成
阶段 2:确认 PMF 后自建(4-6 周)
Next.js (前端)
↓
API Server (Node.js/Go)
↓
Redis Queue (BullMQ)
↓
Workers (OpenClaw agent 实例 × N)
↓
PostgreSQL (用户/报告) + R2 (报告文件)
自建原因:
- 成本降 30%(省掉 inference.sh 执行费)
- 完全控制质量(可以用 Opus 做高端版)
- 不依赖第三方
成本模型
每篇研究的成本
| 组件 | Sonnet 方案 | Opus 方案 |
|---|---|---|
| LLM 输入 (~50K tokens) | $0.015 | $0.25 |
| LLM 输出 (~5K tokens) | $0.04 | $0.125 |
| Web Search (~5 次) | $0.025 | $0.025 |
| Web Fetch (~5 次) | ~免费 | ~免费 |
| inference.sh 执行费 | ~$0.05 | ~$0.05 |
| **总成本** | **~$0.13** | **~$0.45** |
定价方案
| 层级 | 价格 | 包含 | 单价 | 毛利率 |
|---|---|---|---|---|
| Free | $0 | 3 篇/天 | - | 获客成本 |
| Pro | $9.9/月 | 100 篇 | $0.099 | ~24% |
| Team | $29/月 | 500 篇 | $0.058 | 亏(需 Opus 降级) |
| API | 按次 | $0.30/篇 | $0.30 | ~54% |
> ⚠️ 关键洞察:用 Sonnet 做标准版保证毛利为正,Opus 作为 Premium 附加收费(+$0.50/篇),或者等 MiMo-V2-Pro 这类低成本模型质量追上来。
差异化与护城河
我们有什么别人没有的?
1. 290+ 篇报告的模板和 prompt 积累 — 不是通用研究,是经过迭代的专业模板
2. 一句话版本 + 评分体系 — 让非技术读者也能快速理解
3. 领域专注 — 先做 AI/开发者工具赛道,比通用搜索更深
4. 双语支持 — 中英文报告,覆盖中文开发者市场(Perplexity 的弱项)
护城河在哪?
坦率说——目前没有强护城河。主要靠:
- 先发优势(已有内容积累)
- Prompt engineering 的 know-how
- 社区和品牌
长期需要建立:
- 用户研究历史 — 越用越懂你关注什么
- 知识图谱 — 报告之间的关联("这个项目和你上周研究的 X 有什么关系")
- 定制化研究模板 — 不同行业/角色的研究侧重点不同
风险清单
| 风险 | 严重度 | 缓解策略 |
|---|---|---|
| inference.sh 团队不明/可能跑路 | 高 | 阶段 1 仅做验证,阶段 2 迁移自建 |
| Sonnet 研究质量不够 | 中 | A/B 测试 Sonnet vs Opus,用户调研 |
| Perplexity/ChatGPT 碾压 | 高 | 差异化:深度 > 速度,专注垂直领域 |
| 获客成本高 | 中 | 先从现有 290+ 报告做 SEO 引流 |
| 用户留存低 | 中 | 研究历史 + 个性化推荐 |
行动计划
第一步(本周):验证需求
- ] 把 [temp.jaylab.io 做成公开产品页(展示报告效果)
- [ ] 加 "Request Research" 表单(收集邮箱 + 链接)
- [ ] 在推特/社区分享几篇代表性报告
- [ ] 收集 50 个用户请求,手动跑 agent 服务
第二步(验证后 1-2 周):inference.sh MVP
- [ ] 注册 inference.sh,创建 deep-researcher Agent
- [ ] 自建 web-fetch App 和 analyze App
- [ ] 配置 Flow(固定研究流程)
- [ ] 暴露 API + 简单前端
- [ ] 邀请 beta 用户测试
第三步(MVP 验证后 4-6 周):自建迁移
- [ ] 搭建 Next.js + API + Queue 架构
- [ ] 迁移 Agent 逻辑到 OpenClaw workers
- [ ] 加用户系统 + 计费
- [ ] 上线正式版
评分
| 维度 | 分数 | 说明 |
|---|---|---|
| 市场机会 | 8/10 | AI 研究赛道热,但巨头已入场 |
| 技术可行性 | 9/10 | 核心流程已验证 290+ 次 |
| 商业模型 | 6.5/10 | Sonnet 方案毛利薄,需精细控制成本 |
| 差异化 | 6/10 | 模板/深度是优势,但护城河不深 |
| 执行难度 | 7/10 | MVP 快,但产品化细节多 |
| 时机 | 8.5/10 | Agent 生态爆发期,MCP 协议推广中 |
| **综合** | **7.5/10** |
关键链接
- 现有报告库:https://temp.jaylab.io/
- inference.sh(候选运行时):https://inference.sh/
- inference.sh 研究报告:https://temp.jaylab.io/inference-sh-agent-runtime-platform-report
- 麦当劳 MCP 分析(MCP 产品化参考):https://temp.jaylab.io/mcdonalds-mcp-skill-analysis-report
- Perplexity(竞品):https://perplexity.ai/
- Genspark(竞品):https://genspark.ai/
> 一句话总结:我们有 290+ 篇 AI 深度研究报告的生产经验,现在考虑产品化。推荐路径:先用 inference.sh 做 MVP 快速验证需求(1-2 周),确认 PMF 后迁移自建控制成本。核心挑战不是技术——是差异化和获客。先把现有报告做成 landing page,收集 50 个用户请求验证需求再说。