比尔·弗兰克斯
前言:本文作者的观点是在真正的通用人工智能(AGI)到来之前,一种“够好就行”的人工智能(AGEI)就已经足以引发我们原本担心 AGI 才会带来的重大社会变革、正面效益,甚至潜在危机。
换句话说:
AI 不需要达到像人类一样全面智能的程度;
只要在足够多的任务上做到“够好”,它就已经足以替代人类,带来巨大的影响;
AGEI 的时代即将到来,比我们想象得更快,而我们对此尚未做好准备。
作者强调了一个类似“技术够用就能普及”的现实:人类常常不等“最好的”技术,而是选择“够用又便宜”的技术解决方案。AI 的发展也正在走这条路。我们一边担心 AGI,却没注意到 AGEI 正悄悄靠近。
我最近在一个关于人工智能风险和伦理的座谈会上发言,一位观众问我们是否认为通用人工智能(AGI)是我们需要担心的东西,如果是,那是什么时间范围内的事情。当我带着新的关注思考这个常见问题时,我意识到有件事情已经快要发生了,它将带来许多类似的影响——无论好坏。
当然,AGI 可能会带来很大问题,就像电影里那种邪恶 AI 接管世界的剧情一样。AGI 也可能带来一个繁荣的新纪元。然而,它似乎离我们还算遥远。我的顿悟是,在 AGI 到来之前,我们就可能经历几乎所有我们预期 AGI 会带来的负面和正面结果。这篇博客就是要解释这件事!
Firefly
“够好就行”原则
随着技术的发展,曾经非常昂贵、困难和/或耗时的事情变得便宜、简单而快捷。大约在 12 到 15 年前,我开始看到一些在第一眼看上去很不理智的技术决策被企业做出。然而,仔细审视后,这些决策往往非常合理!
想象一个公司在进行基准测试,以比较不同数据平台在特定任务上的速度和效率。历史上,公司会购买测试中表现最好的平台,因为对速度的需求超过了平台本身的能力。然后,一些奇怪的事情开始发生,特别是在那些不像大公司那样有高度规模化和复杂需求的小公司中。
在某些情况下,一个平台在测试中显然大获全胜——公司也承认这一点。但最终赢得生意的却是另一个性能较差(但也更便宜)的平台。为什么公司会接受一个表现较差的选择?原因在于,那些落败的平台依然“够好”到可以满足公司的需求。他们愿意选择便宜但“够好”的方案,而不是花更多钱去追求“更好”。技术的发展让这种权衡变得可行,也让原本看起来不理智的决策变得非常合理。
将“够好就行”原则应用于 AGI
让我们回到关于 AGI 的讨论。虽然我个人认为我们离 AGI 还挺远的,但就我们即将面临的冲击来说,这一点可能并不重要。是的,AGI 会轻松超越今天的 AI 模型。然而,我们不需要 AI 在所有方面都像人类一样优秀,它就已经能带来巨大的影响了。
像 Open AI 的 o1、xAI 的 Grok 3 和 DeepSeek-R1 这样的最新推理模型,已经让 AI 能够处理完全不同层次的问题解决和逻辑推理。它们是 AGI 吗?不是!它们很厉害吗?是的!我们很容易看到再迭代几代,这些模型就会在很多任务上达到“人类水平的优秀”。
最终,这些模型无需跨越 AGI 的界限,就可以带来巨大的正面和负面影响。就像那些达到了“够好”标准的平台一样,只要 AI 能够处理足够多的事情、速度足够快、准确度也足够高,那么它们就常常会胜过那些客观上更聪明、更高级的人类竞争者。在那时,把流程交给 AI 而不是交给人类就会变得很理性,我们也将看到它所带来的各种影响——好的和坏的。这就是人工“够好就行”智能,也就是 AGEI!
换句话说,AI 不需要像我们一样有能力,或像我们一样聪明。它只需要达到 AGEI 的标准,做到“够好”,让我们觉得不值得再花时间让人类去把事情做得稍微好一点!
“够好”AI 的影响
自从 AGEI 这个想法进入我脑中后,我就无法停止思考。也许我们已经被自己的假设给耍了。我们坚信 AGI 还很遥远,因此觉得我们还很安全,不必担心 AGI 带来的各种冲击。然而,就在我们小心翼翼地“盯着后方”,以防 AGI 偷偷接近的时候,有个别的东西已经悄悄靠近了我们——人工“够好就行”智能。
我真心认为,对于很多任务,我们距离 AGEI 只有几季甚至几年时间。我不确定各国政府、公司或个人是否真正意识到这件事来得有多快——或该如何规划应对。但我们可以确定的是,一旦某样东西变得够好、够可用、够便宜,它就会被广泛采用。
AGEI 的普及可能会彻底改变社会的生产力水平,带来很多巨大的好处。但在那些好处的背后,也潜藏着巨大的阴暗面:人类在很多活动中可能变得无关紧要,甚至可能像《终结者》电影那样,被我们自己创造的 AI 背叛。我不是在说我们应该认定末日一定会来,而是说那些可能发生末日的条件正在快速形成,而我们对此毫无准备。与此同时,一些我们期待的正面冲击,也可能比我们想象中来得更早,而我们也没有准备好去迎接它们。
如果我们不警醒、不开始规划,这种“够好”的 AI 可能会在 AGI 出现之前,就带来我们曾经对 AGI 抱有的全部希望与恐惧。但如果我们没准备好,这个转变将会非常痛苦和混乱。