在大模型越来越广泛的今天, 我的生活已经快被它包围了.
包括但不限于:
- 代码编程
- 请教 问题/概念
- 功能需求: 语言翻译/Debug/审阅简历/DeepResearch
- 娱乐需求: 聊天/角色扮演
非常好, 效率提升非常多, 但是问题是: 我只感觉我越来越空洞.
LLM依赖症
什么叫做LLM依赖症, 我总结下来有两个特点:
- 思考外包: 不再主动的思考了, 只会被动的接受结论.
- 认知萎缩: 对于世界的理解, 不仅没有变得更加敏锐, 而是更加的混沌.
我曾经长时间陷入这种状态, 看起来好像出活很快, 效率很高. 但是并没有让你有本质上的提高.
提高的仅仅是使用AI的效率, 在LLM越来越强大的现在, 我认为我将来使用工具的能力也会被AI超越.
我将这种症状称之为LLM依赖症, 或者叫做AI缺脑.
病因
病因有几个:
- 被动的接受结论, 而对于得到结论的过程没有足够的了解
- 缺少积累, 你不再记笔记, 也不再写博客, 你不需要回顾知识, 你只会问AI.
一剂良药
推理模型
推理模型太好了, 给的答案非常好, 但是我认为这不是最有价值的部分.
最有价值的部分是推理的部分, 对于大部分的情况下, 我建议你看一看他的推理, 非常精彩. 本质上来说, 它把自己思考的过程告诉了你.
而人类有着强大的模仿能力, 你不能模仿结果, 那太难了.
但是你可以模仿过程, 这种裸露的思考过程不见得很深刻, 但是这可以告诉你结论的推导过程, 这其实非常重要.
Anti-Summarize
总结是AI最强大的能力之一.
但是我觉得你要慎用, 至少当你在阅读文档/论文/书籍的时候, 珍惜跟随老师们的思维之旅, 而不是吃一个干巴巴的压缩饼干.
我反对用AI做总结吗? 不! 我认为当然要用, 但是在一些时候, 不要太过于做选择性思考.
你可以用AI来评估内容的价值, 但是你要知道: 面包是美味, 但是压成面团就不那么可口
Deep Research
Deep Research非常重要.
我认为将来Deep Research会越来越重要, OpenAI的DeepResearch太昂贵.
我强烈推荐你用Gemini Deep Research, 能够把内容变薄很容易, 但是把内容变厚是很难的.
而Deep Research提供了一个非常好的入口, 就是给你一个领域中非常详尽的大纲和结论.
尽管我认为直接用结论是愚蠢的, 但是如果是N个领域/方向的结论相互印证, 这其实是有价值的.
而且, Deep Research中提供的Thought非常关键.
你应该多跟着AI来搜一搜, 尤其你对于一个领域并不十分了解.
笔记/知识管理
多写笔记, 多整理笔记.
用Cubox + flomo + siyuan来构建你的至少管理.
即: 碎片知识整理 + 碎片的知识输出 + 长篇的整理输出/知识持久化
我个人用下来觉得还不错, 给大家推荐一下
用自我知识管理来对抗依赖性和成瘾性, 这可能是最终的答案.