无论你是乐观主义者还是悲观主义者,有三个理由让我们更加认真地对待人工通用智能(AGI)的进展。
以下是我对人工智能的一些看法:
我相信,在过去几年中,AI系统已经开始在多个领域超越人类——数学、编程和医疗诊断,仅举几例——而且它们每天都在变得更好。
我相信,很快——可能在2026年或2027年,甚至可能就在今年——一家或多家AI公司将宣布他们已经创造了人工通用智能(AGI),通常被定义为“一种通用AI系统,能够完成几乎所有人类可以完成的认知任务”。
我相信,当AGI被宣布时,关于定义和它是否算作“真正的”AGI的争论将会出现,但这些争论大多无关紧要,因为更广泛的观点——我们正在失去对人类水平智能的垄断,并过渡到一个拥有非常强大AI系统的世界——将是真实的。
我相信,在未来十年内,强大的AI将产生数万亿美元的经济价值,并将政治和军事力量的平衡向控制它的国家倾斜——大多数政府和大公司已经将这一点视为显而易见的事实,这从他们为率先实现这一目标而投入的巨额资金中可见一斑。
我相信,大多数人和机构对今天存在的AI系统完全没有准备,更不用说更强大的系统了,而且在任何政府层面都没有切实可行的计划来减轻这些系统的风险或抓住它们的好处。
我相信,那些顽固的AI怀疑论者——他们坚持认为进展都是烟雾和镜子,并将AGI视为一种妄想——不仅在实质上是错误的,而且给人们带来了虚假的安全感。
我相信,无论你认为AGI对人类来说是伟大的还是可怕的——老实说,现在说可能还为时过早——它的到来提出了重要的经济、政治和技术问题,而这些问题我们目前还没有答案。
我相信,现在就是开始为AGI做准备的正确时机。
这一切听起来可能很疯狂。但我并不是作为一个充满幻想的未来主义者、一个炒作自己AI投资组合的投资者,或者一个吃了太多迷幻蘑菇并看了《终结者2》的人得出这些观点的。
我是作为一个记者得出这些观点的,我花了很多时间与构建强大AI系统的工程师、资助它的投资者以及研究其影响的研究人员交谈。我逐渐相信,现在AI领域发生的事情比大多数人理解的要大得多。
在我所在的旧金山,AGI的概念并不边缘或异域。这里的人们谈论“感受AGI”,而构建比人类更聪明的AI系统已经成为硅谷一些最大公司的明确目标。每周,我都会遇到从事AI工作的工程师和企业家,他们告诉我,变革——巨大的变革,震撼世界的变革,我们从未见过的变革——即将到来。
“在过去的一两年里,以前被称为‘短时间线’(认为AGI可能在本十年内建成)的观点已经成为近乎共识,”去年离开OpenAI的独立AI政策研究员迈尔斯·布伦戴奇最近告诉我。
在湾区以外,很少有人听说过AGI,更不用说开始为它做计划了。在我的行业里,认真对待AI进展的记者仍然有可能被嘲笑为轻信的傻瓜或行业托儿。
老实说,我理解这种反应。尽管我们现在有AI系统为诺贝尔奖级别的突破做出贡献,尽管每周有4亿人使用ChatGPT,但人们在日常生活中遇到的许多AI系统仍然令人烦恼。我同情那些在Facebook动态中看到AI垃圾信息,或者与客服聊天机器人进行笨拙互动并认为:这就是将要接管世界的东西?
我曾经也嘲笑这个想法。但我逐渐相信我是错的。有几件事说服我更加认真地对待AI的进展。
内部人士感到担忧
当今AI行业最令人困惑的事情是,最接近这项技术的人——领先AI实验室的员工和高管——往往对它的改进速度最为担忧。
这很不寻常。回到2010年,当我报道社交媒体的崛起时,Twitter、Foursquare或Pinterest内部没有人警告说他们的应用程序可能引发社会混乱。马克·扎克伯格并没有测试Facebook以寻找证据证明它可以用于制造新型生物武器或进行自主网络攻击。
但今天,最了解AI进展的人——构建强大AI的人,他们接触到的系统比公众看到的更先进——告诉我们,重大变革即将到来。领先的AI公司正在为AGI的到来做准备,并研究他们的模型可能具有的可怕特性,例如它们是否能够策划和欺骗,以应对它们变得更强大和自主的可能性。
OpenAI的首席执行官萨姆·阿尔特曼写道:“开始指向AGI的系统正在进入视野。”
Google DeepMind的首席执行官德米斯·哈萨比斯表示,AGI可能“三到五年内”就会到来。
Anthropic的首席执行官达里奥·阿莫代伊(他不喜欢AGI这个词,但同意其一般原则)上个月告诉我,他相信我们距离拥有“大量比人类在几乎所有事情上都聪明得多的AI系统”只有一两年的时间。
也许我们应该对这些预测打折扣。毕竟,AI高管们可以从夸大的AGI炒作中获利,可能有动机夸大其词。
但许多独立专家——包括世界上最有影响力的两位AI研究人员杰弗里·辛顿和约书亚·本吉奥,以及拜登政府的顶级AI专家本·布坎南——都在说类似的话。还有许多其他著名的经济学家、数学家和国家安全官员也在这样说。
公平地说,一些专家怀疑AGI是否即将到来。但即使你忽略所有在AI公司工作或对结果有既得利益的人,仍然有足够多的可信独立声音支持短时间线的AGI预测,我们应该认真对待他们。
AI模型在改进
对我来说,与专家意见一样有说服力的是,今天的AI系统正在快速改进,这一点对任何使用它们的人来说都是显而易见的。
2022年,当OpenAI发布ChatGPT时,领先的AI模型在基本算术上挣扎,经常在复杂推理问题上失败,并且经常“幻觉”或编造不存在的事实。那个时代的聊天机器人在正确的提示下可以做出令人印象深刻的事情,但你永远不会将它们用于任何关键任务。
今天的AI模型要好得多。现在,专业模型在国际数学奥林匹克竞赛中取得了奖牌级别的成绩,通用模型在复杂问题解决方面变得如此出色,以至于我们不得不创建新的、更难的测试来衡量它们的能力。幻觉和事实错误仍然会发生,但在新模型上它们更少见。许多企业现在对AI模型足够信任,将它们构建到核心的、面向客户的功能中。
(纽约时报已起诉OpenAI及其合作伙伴微软,指控他们侵犯了与AI系统相关的新闻内容的版权。OpenAI和微软否认了这些指控。)
部分改进是规模的结果。在AI领域,更大的模型,使用更多的数据和计算能力进行训练,往往会产生更好的结果,而今天的领先模型比它们的前辈要大得多。
“如果你真的想了解AI最近变得有多好,和程序员聊聊。”
但它也源于AI研究人员近年来取得的突破——最值得注意的是,“推理”模型的出现,这些模型在给出响应之前被设计为进行额外的计算步骤。
推理模型,包括OpenAI的o1和DeepSeek的R1,被训练来解决复杂问题,并使用强化学习构建——这是一种用于教AI以超人类水平玩棋盘游戏Go的技术。它们似乎在以前模型绊倒的事情上取得了成功。(仅举一个例子:OpenAI发布的标准模型GPT-4o在2024年AIME(一套极其困难的竞赛数学问题)上得分为9%;几个月后OpenAI发布的推理模型o1在同一测试中得分为74%。)
随着这些工具的改进,它们对许多白领知识工作变得有用。我的时报同事埃兹拉·克莱因最近写道,ChatGPT的深度研究(一个生成复杂分析简报的高级功能)的输出“至少是中位数”的,与他合作过的人类研究人员相比。
我也在工作中发现了AI工具的许多用途。我不使用AI来写我的专栏,但我用它来做很多其他事情——准备采访、总结研究论文、构建个性化应用程序来帮助我完成行政任务。几年前这些都不可能。我发现任何定期使用这些系统进行严肃工作的人都很难得出结论说它们已经达到了瓶颈。
如果你真的想了解AI最近变得有多好,和程序员聊聊。一两年前,AI编码工具存在,但更多是为了加速人类编码员而不是取代他们。今天,软件工程师告诉我,AI为他们完成了大部分实际编码工作,他们越来越觉得自己的工作就是监督AI系统。
创业加速器Y Combinator的合伙人贾里德·弗里德曼最近表示,该加速器当前一批初创公司中有四分之一使用AI编写几乎所有代码。
“一年前,他们会从头开始构建他们的产品——但现在95%的产品是由AI构建的,”他说。
过度准备是最好的
本着认知谦逊的精神,我应该说,我和许多其他人可能对我们的时间线判断错误。
也许AI进展会遇到我们未曾预料的瓶颈——能源短缺阻止AI公司建造更大的数据中心,或者用于训练AI模型的强大芯片供应有限。也许今天的模型架构和训练技术无法将我们一路带到AGI,还需要更多突破。
但即使AGI比我预期的晚十年到来——在2036年而不是2026年——我相信我们现在就应该开始为它做准备。
我听到的大多数关于机构如何为AGI做准备的建议都归结为我们无论如何都应该做的事情:现代化我们的能源基础设施,加强我们的网络安全防御,加快AI设计药物的审批流程,编写法规以防止最严重的AI危害,在学校教授AI素养,并优先考虑社会和情感发展而不是即将过时的技术技能。这些都是明智的想法,无论是否有AGI。
一些科技领袖担心,对AGI的过早恐惧会导致我们过于激进地监管AI。但特朗普政府已经表示希望加快AI发展,而不是放慢速度。而且有足够的资金被用于创建下一代AI模型——数千亿美元,还有更多在路上——领先的AI公司似乎不太可能自愿踩刹车。
我也不担心个人为AGI过度准备。我认为更大的风险是,大多数人直到强大的AI直接面对他们——消除他们的工作、诱骗他们陷入骗局、伤害他们或他们爱的人——才会意识到它的存在。这大致是社交媒体时代发生的事情,当时我们未能认识到Facebook和Twitter等工具的风险,直到它们变得太大和根深蒂固而无法改变。
这就是为什么我相信现在就应该认真对待AGI的可能性,即使我们不知道它具体何时到来或具体会采取什么形式。
如果我们否认——或者如果我们根本没有注意——我们可能会在最重要的时刻失去塑造这项技术的机会。
本文最初发表于《纽约时报》。