AI 虽然能帮我们把很多事情都做得很好,但如果将 AI 的使用视为一种人机协同发展的话,人在其中让渡了太多权力。
当开启一个新的 ChatGPT 对话,它不会很清晰地记得在别的对话中聊过什么,只是按照新的指令重新组织语言生成内容,每个对话之间是有一定隔离的。但人不一样,人在每个任务窗口中所产生的上下文都会被长期携带在大脑中,当遇到类似的事情能够触类旁通,所有的知识都会有机地结合在一起。
如果人变得跟 AI 一样在不同的任务之间可以「刷新」记忆,依赖于外部给出的结论,AI 就成功地反向驯化了人类。
而实际情况正是如此。
我深刻记得有个朋友,他的 ChatGPT 账户被风控了,给我说他过去的心血都在里面,最新的项目方案也在,账户冻结导致他丢失了所有的知识,花了大把时间也没有找回来,非常焦虑。
可见,我们正在默不作声地将大脑的角色让渡给 AI ,而我们却成了在大脑指挥下去行动的肢体。
- 项目中我花了几天时间让 AI 完成了代码的编写,但我并不知道 AI 的实现逻辑和架构是怎样的;
- 把一包让人头疼的数据丢给 AI ,几分钟后我把图表和数据粘贴到PPT里面,我不知道数据分析的逻辑是什么;
- 我问了 AI 一个问题,它的回复让我在当时得到了答案,过几天我就忘了。
将 AI 给出的内容以为真,完全不加修饰地将内容扔出来,这种情况在内容创作中非常多见:抖音短视频、小红书笔记、漫画、公众号等等,AI 的内容虽然外观精美,在精美的外壳下内容却非常的苍白,只有提示词中给出的寥寥信息,长篇大论也是来来回回地不断重复而已。
还有不少人贩卖焦虑,不断地在说“今年再不学会xx就要失业”,“下一个替代你的就是xxx”等等,让更多的人产生 AI = 权威结论 的印象,更会将 AI 的结果吹上天。以至于有很多高赞的笔记,标题就是:我跟 ChatGPT 聊了聊结果却让我大吃一惊,让人猎奇的同时又感到焦虑。
在我理解中,这不是 AI 的问题,就如同我前面说的,如果将 AI 视为一种人机协同发展的话,人应当承担更重要的角色,夺回作为大脑的控制权。
之前读到过一篇文章,叫做把 AI 作为方法,内容说的是可以将 AI 拿来作为理解世界的工具,压缩探索和理解的过程。这类观点不计其数,其论点根本就是本末倒置,用 AI 理解世界就等于用 AI 的思路来看世界,一串没有体验没有感受和人情世故的 AI 能给出什么有用的见解,能作为方法的永远只能是自己。
到这里让我想到,在使用 Cursor 的时候,我有一个非常好的体验,就是它会自动将我给出的指令,拆解成多个待办任务,每完成一个任务就会划掉去执行下一个,这种方式输出的代码质量相对还不多。在我深入了解为什么会有这种功能设计的时候,有一个词浮出水面「不信任」,由于人类对于 AI 的不信任,因此需要由多个 AI 来协作,有的专门生成规划,有的专门来执行,有的专门来做验收,三者互不干涉,独立运作,才能更好地呈现结果。
一切的约束、规范,都是在「不信任」的基础之上,「不信任」让产出的质量更高。但我们在跟 AI 的实际交互中,缺少了校验机制,以至于在 AI 在出现「幻觉」时我们依然会选择相信。
基于上面的思考,我做了一个实验,我来主导项目,由 AI 作为执行和辅助,效果非常好。
有一个 PDCA 的理论,项目的推进是一个 计划(Plan) – 执行(Do) – 检查(Check) – 行动(Action) 的循环,通过循环在过程中不断地推进项目。
我在实验中将循环结尾增加了一个元素,使每一轮循环都能构建起资产的复利:计划(Plan) – 执行(Do) – 检查(Check) – 行动(Action) – 知识(Knowledge)。而知识就是 AI 所欠缺的一环,只要有了知识,AI 就能获得足够的上下文,就能更好地胜任辅助角色,减少因为切换任务窗口而出现「刷新」。

我的实验其实很简单,给 ChatGPT 安装上了 Notion 应用,项目中我遇到的所有问题,我都会落地成为知识,保存在 Notion 中,记录问题出现的原因、关联部分、影响范围、解决思路、可行方案、迭代计划等。Notion 知识库会作为下一次沟通的上下文,在需要时让 ChatGPT 自己检索查询,并结合之前的实现情况来思考,避免出现顾此失彼的情况。
同时,我在 Notion 中还制定了里程碑和待办事项,ChatGPT 的计划任务每天都会帮我监督执行情况。此外,在每次遇到困难时,我会列下思路和大纲,跟 ChatGPT 通话开会,把必要的文档丢给它让它参与到项目讨论中来,最后形成会议纪要,我再回头检查一遍更新待办和知识库。形成项目推进的闭环。
这种模式对于小团队或者独立开发者来说非常友好,由人来真正地主导项目,让 AI 充分发挥它的优势。
腾讯研究院发表过一篇文章,叫做人应成为 AI 发展的尺度,在我读后感到非常通透,人应当是万物的尺度,不论技术怎么发展,都不应脱离人这个最根本的范畴。AI 会平等地给出理性结论,但不同人的不同理解方式,就需要 AI 给出不同的视角和见解,而不是将所有人都拉到一个层面上思考问题。
要说这个实验给我带来的启发,就是「把自己作为上下文」,当一切离不开 AI 的时候,能让 AI 起到正向积极作用的是上下文约束,充足的上下文能修正不少错误的看法,减少 AI 思考方式与人类思考方式在得出结论上的摩擦。
虽然目前的 AI 做不到能够实时矫正的功能,但我们可以自己来定义需要什么样的知识、如何面对项目中的困难、提出自己在困境中的突破方法,AI 不能为最终的结果负责,但你可以。
🔚