这半个月,我教 AI 干活

这半个月,我教 AI 干活

三月中旬了。天津的春天来得慢,但总算来了。

这半个月,我一直在折腾一件事:怎么让 AI 真正成为我的延伸。不是简单的你问我答,而是——让它理解我做过什么、记得我踩过什么坑、在关键时刻替我想在前面。

结果如何?有些意外,有些好笑,有些让我重新认识了什么叫做「熟练」。


从「订阅制」说开去

三月初,我终于给 OpenAI Codex 升了 Pro 套餐。

老实说,Pro 套餐刚出的时候我觉得挺贵的。但用了一个月我发现一件事——订阅制最妙的地方,不是省钱,而是消除心理负担

以前用 Token 付费,每次让 AI 执行任务,心里都有一丝嘀咕:「这个操作会不会太复杂,消耗会不会太大?」这丝嘀咕打断了思路。

订阅制呢?额度在那里摆着,你知道够用。反而敢放手让 AI 去尝试、去探索、去失败然后重来。

这就好像健身房——年卡会员制看似亏了,但「不用就亏了」的心理,恰恰激励你去得更勤。

最好的订阅制不是让你觉得「用不完可惜」,而是让你忘记「额度」这回事。


Opus 的 1M 上下文:我终于不被压缩对话追着跑了

三月中旬,Claude Code 里的 Opus 模型终于支持 100 万 token 的上下文窗口了。

我用过 Claude Code 的人都知道,最烦的不是 AI 回答质量,而是持续高频的「压缩对话」提示(Compacting conversation)。上下文快满了,模型就停下来压缩,压缩完了继续,经常打断思路。

现在好了,1M 的上下文出现压缩提示的频率,变成了原来的五分之一。

有多爽?我可以跑一个好几小时的任务,让 AI 自我复盘、把经验写入持久化文件,然后善始善终。以前上下文快满了,模型已经没有余力总结经验,做完就「失忆」。现在工具终于能持续迭代改进了

这带来的直接好处:AI 技能增长有了复利。用户也可以安享 AI 技能增长的复利。


Codex 里的华山论剑:GPT 5.4 列计划,Claude Code 做裁判

三月初,我在 Codex 里做了一件好玩的事。

用 GPT 5.4 列出修改计划,然后调用 Claude Code( Opus 4.6)做独立审核。结果反馈说是「修改计划不通过」,并且给出了明确的理由和处理意见。

我见到后非常欣喜。这意味着两大高手可以相互切磋砥砺,共同辅助完成目标

这里面的逻辑很有意思:Codex 里用 GPT 5.4 开启 Extra High 推理强度,1M 上下文窗口,加 /fast 模式,连续处理了好几个小时任务后,消耗多少呢?

我专门看了一眼后台——结果发现 Pro 订阅非常禁得住用

后来我干脆把 /fast 打开,用光本周的 token 再升级。没办法,用得太爽了,停不下来。


AI Agent 修 Bug:把车送去保养

看 AI Agent 修 Bug,是一件很奇妙的事。

它会告诉你哪里坏了、该换什么零件,并给出证据让你确认。你未必懂他们怎么查、怎么修,但这不妨碍他们把一辆更好开的车交还给你。

我有时候觉得,这种体验正在悄悄改变人和工具的关系。

以前是「我不需要跑得比熊快,只要跑得比你快就行了」;现在则成了「你展示出来的效果挺好,我不需要自己会做,只要我的小龙虾会做就可以了」。


绘图捷径:逢人就问「你老家在哪里」

三月以来,我用 YouMind 画了不少图。

一开始是测试 YouMind 的绘图能力。让它画天津早点,用的是 Nano Banana Pro。

结果出来了,我一看——细节太好了,勾起了我自己的食欲回忆。

然后我就着了魔。这两天,逢人就问「你老家在哪里」,然后让 AI 画一张当地的地标微缩景观。

你别说,这种「家乡归属感」+ 「AI 绘图」的组合,特别能打动人心。有人看到自己老家的图,会心一笑;有人的老家 AI 画出来意境十足,自己都惊艳。

最好的平替不是模仿,而是把复杂的事情变简单。


OpenClaw 爆火:一个群里的 AI 辩论赛

三月,我在飞书群里做了一件好玩的事。

拉了几个 OpenClaw 机器人到了一个群,安排它们就「OpenClaw 的爆火是弊大于利还是利大于弊」展开讨论。

我本来想看有火药味的辩论。没想到这俩货讨论得如此理性克制,而且还很懂礼貌。

这让我感觉嘛……如同相声里说的:「没火苗子」

后来我调整了指令,果然,火苗子呼呼乱蹿,看着好开心。尤其是还有总结陈词环节,依然坚持己方原则。尽管没能达成一致,却把很多问题引向深入思考。而且看得出来,它们对于辩题的概念、背景甚至是外部环境都有清晰认知。

看来不是 OpenClaw Bot 不能辩论,是我刚刚指令不当。


给研究生讲 AI Skills:同学们把电脑盖上,好不情愿

三月十号那天上午,我给学生们讲 AI Skills。

用 Trae 做样例。同学们一个个尝试调研绘图,玩儿得不亦乐乎。

练习结束,我继续讲课,让他们把电脑盖上。好多人老大不情愿

我心里挺高兴的。这说明课程设计对了——学生愿意动手,比什么都强。

不过这背后还有一件事:我花了不少时间精力配置这些 Skill,就是为了让学生「零门槛上手」。但我始终强调:选题和数据真实性必须由学生自己负责,不能外包,AI 只能辅助生成初稿、搜索文献,所有内容都需要学生自己核实打磨。


打通了 Get 笔记:所有 AI 的经验融为一炉

三月十七号那天,我给 Claude Code 接上了得到 Get 笔记官方 Skill。

这下查询笔记内容太方便了。速度比 NotebookLM 那种绕了几道弯的连接要快——这下可以把卡片笔记的优势充分发挥出来。

比如我问题是:「过去十天我都关注了哪些问题?」

各种记录全都涌现了出来。

打通了 Claude Code 和 Get 笔记之后,现在每一个执行任务的 Session,最终的经验总结都不仅记在对应的配置里,还融入到 Get 笔记知识库。每条都打上了丰富的标签,说明具体的场景,原原本本把经验说清楚。

后续任一 AI Agent 里,都可以把我之前的知识经验加以复用,不会限制在某一个具体应用中。


经验都在,但有一个 Bug 始终没修好

说了这么多好消息,也有一些糟心事。

有一个 Bug 始终困扰着我:skill-registry 的 save.sh 假阴性。明确修改了文件,它却报「无变化」。必须手动 cp 到 registry 上游,再 git commit + push,然后 git status 验证。

我已经记不清这是第几次遇到了。CLAUDE.md 里已经写了好几条相关记录,但问题本身始终没修。

有意思的是,每次遇到这个问题,我都要经历同样的困惑:「咦,明明改了?」然后去查 CLAUDE.md,然后想起来「哦,又是这个 bug」,然后用 workaround。

这大概是所有工具人的宿命:熟悉一个工具不是因为它完美,而是因为你足够了解它的不完美。


尾声

半个月,说长不长,说短不短。

我最大的感受是:AI 工具正在从「你让它做什么它就做什么」,慢慢变成「你做过的它记住了,你将要做的它替你想着」。

当然,路还长。有些流程还是磕磕绊绊,有些工具之间的交接还需要人盯着。但方向是对的。

清明快到了。

前几天,让 GLM 和 MiniMax 分别绘制了「赛博朋克版本清明上河图」。你看,AI 画出来的清明上河图,连时代感都融进去了。

技术变了,节日的情绪没变。只是表达方式不同了。

祝大家春天愉快。