type
Post
status
Published
date
Jun 14, 2025
slug
open-deep-research-learning-notes
summary
我从学习者视角梳理 Open Deep Research:它的重点不是多搜几个网页,而是把问题澄清、资料收集和报告写作组织成稳定流程。
tags
LLM
agent
工具
category
LLM
icon
password
这篇是我学习 Open Deep Research 时整理的笔记。我一开始以为它只是“联网搜索 + 总结”的工程实现,但真正看下来后,我发现深度研究 Agent 的关键不是搜索次数,而是如何把问题澄清、资料收集和最终写作串成稳定流程。
📝 主旨内容
💡 一、我为什么关注 Open Deep Research
研究型 Agent 的难点,不是找到一堆网页,而是知道为什么要找、找什么、找到后怎么判断质量。
我以前让模型做调研,经常会遇到两个问题:要么搜索得太浅,只给我几条表面信息;要么资料很多,但最后总结没有主线。Open Deep Research 给我的启发是,它把研究任务拆成了更清楚的阶段:先界定问题,再执行研究,最后写成报告。
这个拆法很重要。很多时候用户一开始的问题并不完整,如果 Agent 直接搜索,很容易沿着错误方向越走越远。先做 scope,相当于先把研究目标压实,再让后面的搜索和写作围绕这个目标展开。
🔍 二、我理解的三段式流程
我现在会把深度研究 Agent 理解成三段:
- 范围澄清:明确我要回答什么,不回答什么
- 资料研究:根据问题分支搜索、阅读、筛选和压缩
- 报告写作:把证据组织成结构化结论,而不是堆链接
这个流程看起来像普通写作,但放到 Agent 里就会变复杂。模型需要决定下一步查什么,也要判断已有资料是否足够,还要避免被单一来源带偏。
🛠️ 三、我学到的工程启发
Deep Research 不是一次 prompt,而是一套可观测的工作流。
Open Deep Research 基于 LangGraph 这类工作流框架,这点对我很有启发。研究过程天然是多步骤的,如果所有逻辑都塞进一个 prompt,调试会很困难。把“澄清、研究、压缩、写作”拆成节点后,每一步都能单独观察和改进。
这也让我意识到,做 Agent 不能只关心最终回答。中间过程同样重要:它搜索了什么、为什么搜索、丢弃了哪些资料、引用是否可靠,这些才决定研究质量。
🤗 总结归纳
学习 Open Deep Research 后,我对研究型 Agent 的理解更务实了。它不是让模型无限搜索,而是让模型在一个明确流程里逐步收敛问题、筛选信息、组织结论。
作为学习者,我现在更关注它的流程设计:如何澄清问题,如何压缩上下文,如何做评价,如何让最终报告有证据支撑。这些能力比单纯多调几次搜索工具更关键。
📎 参考文章
- LangChain Open Deep Research 博客:https://www.langchain.com/blog/open-deep-research
- LangGraph 文档:https://langchain-ai.github.io/langgraph/
我后面如果继续研究这个项目,会重点看它的状态图、搜索策略、上下文压缩和评测方式,而不是只看最终报告写得漂不漂亮。
- 作者:老王TechTalk
- 链接:https://www.illusionjourney.com/article/open-deep-research-learning-notes
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。
相关文章








