本文由我与 OpenCode(Claude Sonnet 4.6)协作完成。
几年前我写过构建自己的信息简报,当时的答案是 RSS + Email:用 RSSHub 把不支持订阅的网站转成 RSS,再用 Mailbrew 聚合成一份简报定期投进邮箱。那篇文章的观点我至今认可——与其主动到处刷,不如让信息自己送过来。
但用了几年之后,问题越来越明显。
1.0 的问题
Email 本身没问题,问题是内容到了邮箱之后,只是堆在那里。一周的内容混在一起,没有优先级,重要的和噪音并排放着,看起来很累。更麻烦的是,很多我最想追踪的内容根本就不在 RSS 体系里——Reddit 的帖子、Hacker News 的讨论热度、某个社区当天最活跃的话题,这些都是动态的、依赖登录态的内容,RSSHub 能做的其实有限。
与此同时,Email 是静态的,看完就完了。如果某条新闻我想多问几句,或者想把几条相关的内容放在一起对比,邮箱做不到。
在构建高质量的信息输入渠道里我写过,提升信息输入质量的关键是砍掉低质量的渠道。1.0 做到了被动接收,但内容到了之后怎么看,还是要靠自己。
Agent 时代的新思路
从我的AI阅读助手开始,我就在验证 AI 能不能接管阅读环节——读网页、总结内容、跨语言整理。结论是可以,而且效果比我预期要好。那顺着这个方向再往前一步:能不能让 AI 把抓取、理解、投递这整条链路都接管掉?
后来发现这事其实很适合拿 Agent 做。我在写我的AI投资助手的时候开始折腾 OpenClaw,发现它可以定时触发、进入网站、抓取内容、调用模型处理、投递结果,基本上就是把我手工做的那几步串起来自动跑。
我用的工具是 OpenClaw,一个可以在本地运行、与 Discord 深度集成的 AI Agent 控制面。
新的工作流
最关键的一步是数据获取。
以前用 RSSHub 抓取,抓到的是公开的、未登录的内容。但 Reddit 给登录用户和未登录用户看到的内容是不一样的——热榜排序、社区推荐、关注板块的最新内容,这些都需要登录。同样的问题在很多平台上都存在。
现在的做法是:在本地起一个专门的 Chrome profile,提前登录好 Reddit、Hacker News 等网站,然后让 OpenClaw 通过 Chrome 的远程调试协议(Chrome Remote Debug)直接控制这个浏览器。这个 Chrome 用的是我自己的登录态,抓到的内容就是我平时正常浏览时看到的那些内容,稳定可靠,也不用担心 API 限流或者反爬。
OpenClaw 定时触发之后,整个流程大概是这样:
- 打开 Reddit 里我关注的几个板块,抓取当天热帖标题和讨论摘要——我最感兴趣的是投资相关的话题和国际时事,这两块噪音很多但有价值的东西也不少,需要 AI 帮我先过一遍
- 打开 Hacker News,抓取当天热榜前几十条,技术和科技创业相关的综合信息在这里质量最高
- 把抓到的内容交给大模型,做摘要、去重、按主题分类
- 整理好之后投递到我的 Discord 对应频道——投资相关的进一个频道,技术热点进另一个频道
每天早上起来,打开 Discord,简报已经在那里了,按频道分好的,直接看。看到感兴趣的,还可以在频道里直接追问 OpenClaw,它会帮我进一步查找或分析。
简报长什么样
光说架构不直观,贴两段真实输出感受一下。
HN 技术简报(节选)
Hold on to Your Hardware — 554 points / 453 comments
作者认为消费者硬件的"黄金时代"正在结束,不是周期性涨价,而是内存、SSD、GPU 的产能正被 AI 数据中心永久性地重新分配。核心问题不是"硬件会不会贵",而是算力和控制权正在一起向数据中心集中,个人掌控自己计算环境的能力也在同步流失。
今日整体趋势:今天 HN 有三条主线——AI 正在怎样改写资源与权力边界;官僚系统如何消耗人;以及老 HN 味道的技术自主权焦虑。
今日最值得点开的一条:Hold on to Your Hardware——它把"硬件会不会涨价"这个表层问题,连到了"个人是否还能掌控自己的计算环境"这个更深的问题。
Reddit 投资情绪简报(节选,面向策引产品)
本轮 Reddit 信号的底层判断
Reddit 现在不是极端恐慌,而是"烦躁 + 自我说服 + 仍在尝试抄底"。最高信号的帖子往往不是宏观预测,而是行为拆解:我是不是在 market timing?我是不是把回本执念误当成 thesis?
对产品最有价值的候选内容方向:《投资者最常见的两个错误,不是亏损,而是"等"与"急"》——把一直等更大 crash 和一跌就急着抄底这两类用户放在一起,核心是讲:看起来相反,其实都是被情绪驱动。
两份简报格式完全不一样,因为目的本来就不同——前者是给自己消化的,后者是给产品找选题用的。HN 那个 prompt 我要求它必须选出"今天最值得点开的一条"并说明理由,逼着它做取舍;Reddit 那个 prompt 最后要输出候选内容方向,直接为策引的编辑工作服务。同样的流程,prompt 不同,出来的东西就完全是两回事。
和 1.0 的区别
邮箱版用了两年多,我基本每周都能看完,但每次打开心里都有点抵触——内容太杂,不知道从哪里看起,有时候直接标成已读了事。
现在每天早上打开 Discord,频道里的简报五分钟以内扫完,感兴趣的再点进去看原帖。最大的变化不是"看的信息更多了",而是"我终于愿意每天打开了"——这两件事听起来差不多,感受完全不一样。
以前在构建终身学习体系里老说信息输入没做好,但说不清楚哪里没做好。现在回头看,大半时间其实在过滤噪音,不是在读。
还能怎么玩
现在跑的两个任务只是起点,还有几个我想试的方向。
垂直内容监控。给特定领域单独起一条 pipeline 就行。比如每天抓 arXiv 上 AI 相关的新 paper,让模型提取摘要和核心贡献,投进一个专门的频道;或者追踪 GitHub Trending,看每天什么新项目在冒头;又或者盯着某几个你真正在意的 Twitter/X 账号,把他们的发言每天汇总成一条摘要。只要源能抓、prompt 写好,同一套流程就能跑。
竞品和市场监控。对做产品的人来说,这套东西可以当情报系统用。定期去特定 subreddit 或社区抓用户反馈、抓竞品的讨论,让 AI 提炼出"用户在抱怨什么"、“竞品最近在做什么”。这种信息散落在各处,人工去收根本收不完,但对 Agent 来说只是定时任务。
公开社区简报频道。这是我还在推进的方向:目前的简报是私有的,只投给自己。如果开放出来,把 Discord 频道设成公开,感兴趣的人可以加入进来一起看,甚至可以按主题开不同的频道——技术热点频道、投资情绪频道、国际时事频道——让 OpenClaw 定时往对应频道推简报,社区成员可以直接在 Discord 里讨论和追问。
个性化 prompt 订阅。不同的人带着自己的 prompt 进来——关注的板块、摘要深度、过滤标准,都在 prompt 里定义,同一份原始内容给不同人看到的是不同的简报。有点像以前 RSS 的个人订阅,但多了一层 AI 加工。
我在策引的 AI 策略实验室 Chat2Invest 里有个叫 MyFeeder 的功能,一直挂着 coming soon,想做的事跟这个几乎一样。结果没等我开发,OpenClaw 这套就跑起来了,需求被个人工作流提前满足了。也不知道是该高兴还是感慨。
如果你也在折腾类似的东西,或者对这些有想法,欢迎来社区里聊。