谷歌DeepMind CEO谈AGI愿景:十年内成为现实,因安全问题彻夜难眠

智东西
28 Apr

编译 | 金碧辉

编辑 | 程茜

智东西4月28日消息,昨日,据《时代》周刊报道,记者比利・佩里戈(Billy Perrigo)独家专访了谷歌DeepMind CEO、2024年诺贝尔化学奖得主德米斯・哈萨比斯(Demis Hassabis)。这位AI领域的领军人物猜测,通用人工智能(AGI)可能会在未来十年内实现。

他指出,近年来AI研究进展显著,如今有诸多不同路径正助力实现AGI 。并且,谷歌DeepMind的模型Gemini已开始从理解世界迈向行动,能完成如订票、购物、操控机器人执行复杂任务等操作。哈萨比斯认为AGI若发展得当,将帮助人类攻克疾病、能源危机等重大挑战,但同时也可能被滥用为生物武器或脱离人类控制。

此次访谈中,他聊了不少AGI的可能性及最新进展,并坦言全球地缘政治变化可能迫使企业调整相关原则同时,哈萨比斯呼吁国际社会合作制定AI安全标准,他认为实现AGI需多领域研究者协同。

▲谷歌DeepMind CEO哈萨比斯

作为最早公开倡导AGI可行性的科学家,哈萨比斯在2022年行业普遍质疑AGI可能性时,便将其定位为毕生科研目标。

萨姆・阿尔特曼(Sam Altman)和达里奥・阿莫迪(Dari0 Amodei)预测AGI的实现时间在2026年。哈萨比斯称,AGI实现时间在很大程度上取决于对其的定义,当前不少定义因筹资等目的存在水分 。

他强调自己团队对AGI的定义始终是具备人类所有认知能力,并提出以AI能否凭借爱因斯坦20世纪初的同等信息量提出广义相对论为测试标准,指出解决数学问题与提出有价值的猜想是两回事,即便很快会有能解决千禧年数学难题之一的AI系统,但提出系列有趣猜想仍颇具挑战。

以下是此次《时代》周刊资深记者佩里戈与哈萨比斯访谈全程内容的编译(为提高可读性,智东西在不违背原意的前提下进行了一定的增删修改):

一、AGI演进挑战:掌控权、决策逻辑、安全防护

佩里戈:如果AGI得以实现,它将带来深远影响。能否请您展望最理想的发展前景?当人类成功研发AGI时,世界将呈现怎样的图景?

哈萨比斯:我毕生投身AI和AGI研究,是因为我坚信只要以正确、负责任的方式发展,它们将成为人类史上最具变革性的技术。展望未来十年,AI或将帮助我们实现诸多突破:从攻克所有疾病,到开发核聚变、优化电池技术、研制新型超导体等革命性能源方案。

当前人类社会面临的气候变化、疾病等重大挑战,都将通过AI技术找到突破口。可以预见,十年后的世界将因AI的赋能而达到前所未有的繁荣水平,人类不仅在地球上安居乐业,更将借助AI驱动的技术开启星际探索的新纪元。

以气候变化为例。除了技术创新,特别是AI赋能的清洁能源技术等突破性方案外,我们很难指望通过集体行动在短期内取得实质性进展。坦白说,若不是预见AI即将带来的这场技术革命,我对人类当前的发展轨迹会深感忧虑。

正是由于确信AI能帮助我们解决这些迫在眉睫的危机,我才对今后50年的发展保持乐观。就像及时赶到的援军,AI正是当下人类最需要的工具之一。

佩里戈:您一直积极呼吁重视AI风险管控,能否具体说明最坏可能出现的局面?

哈萨比斯:当然,最坏的情况在科幻作品中已有诸多描绘。我个人最为担忧的风险主要集中在两个方面。

首先,AI虽然是一项前景广阔的技术,但它具有典型的“双刃剑”特性,且能力将超乎想象。AI具有的特性意味着心怀不轨者可能将其用于危害性用途。我们面临的核心矛盾是如何在确保科研机构等善意使用者能利用AI攻克疑难疾病的同时,又能有效防范个人乃至敌对势力滥用这项技术。这个平衡难题极具挑战性。

其次,是AGI自身演进带来的风险。随着技术向自主化、智能体化方向发展(这将是未来几年的必然趋势),我们必须解决三大关键问题:如何维持人类对系统的掌控权,如何准确理解和预测AI的决策逻辑,以及如何建立牢不可破的安全防护机制使其不被具备自我优化能力的超级系统突破,这都是极其复杂的课题。

这两类风险犹如悬在头顶的达摩克利斯之剑。但若能妥善应对,人类终将迎来理想中的美好未来

佩里戈:但这还不是最坏的情况,最坏的情形会是怎样的?

哈萨比斯:我认为,AI技术失控可能会带来灾难性后果。若安全防护体系存在重大漏洞,这些系统可能被全面逆向利用。原本用于药物研发的AI模型,可能被恶意改造为生化武器设计工具。每个正向应用场景都可能被系统性转化为攻击性武器。

这解释了为何我始终强调建立全球治理框架,AI技术的研发无国界特性,决定了其影响必然突破地域限制,最终波及世界每个个体。

同时,未来构建全球技术治理AI体系需聚焦三大核心要素。首先要建立统一的系统架构安全标准来保证研发规范,同时,嵌入不可篡改的伦理目标约束机制来管理AI技术,最后形成跨国界部署的协同审查制度同一进行应用监管。

二、因AI安全问题难眠,呼吁构建全球治理框架应对挑战

佩里戈:AI安全学界正热议系统行为的风险特征维度,包括自主权力扩张倾向、欺骗性策略实施、系统性削弱人类决策权及突破控制框架等潜在可能。您对此类风险性质有怎样的研判:究竟属于必然发展路径,还是小概率事件?

哈萨比斯:我的基本判断是这类风险仍处于不可测状态。学界对此存在严重分歧,我的同事中不乏图灵奖得主级别的权威专家,但对这类风险的预测也是各执一词。这种认知对立恰恰表明,真理往往存在于辩证认知中。

当我们深入观察技术发展史,控制系统的难度或许会随着系统进化呈指数级下降,现有技术轨迹已透露出这种可能性。实证数据表明,某些场景下的可控性已优于极端悲观预测模型。

但这绝不意味着可以放松警惕。我们亟需构建多维度风险评估体系,通过可控实验建立可靠的风险量化模型,在技术扩散前完成预防性治理框架设计。对于具有技术奇点级创新的领域,“被动响应”模式可能会带来灾难性后果,这正是我们坚持“预测性治理”原则的根本原因。

佩里戈:有什么事会让你彻夜难眠?

哈萨比斯:对我来说,AI的安全本质上关乎构建全球治理框架的紧迫性,不仅需要国家间协同,更需形成技术治理共同体,特别是在接近AGI技术收敛的关键阶段。当前我们正处于技术奇点的突破前夜,时间窗口可能在5-10年区间内波动。部分前沿研究者的预测模型甚至指向更短周期。我不会感到惊讶,这就像一个概率分布。但无论如何,它很快就会到来。

而我不确定社会是否已经为此做好了充分准备。我们需要深入思考这一点,同时也要考虑我之前提到的那些问题,包括这些系统的可控性、对这些系统的访问权限以及确保一切顺利进行相关的问题。

佩里戈:你觉得自己更像是一名科学家,还是一名技术专家呢?你身处伦敦,离硅谷十分遥远。你对自己有着怎样的定位呢?

哈萨比斯:我首先把自己定位为一名科学家。我这一生所做的一切,其根本原因都是为了追求知识,努力去理解我们周围的世界。我从小就对这件事痴迷。

对我而言,研发AI是我探索问题的一种方式,首先要打造出一个工具—这本身就相当引人入胜,而且它表明了关于智能、意识以及这些本身就堪称最大谜团的事物的某种观点。同时,这个工具能有双重用途,因为它也可以被用作研究你周围自然世界的工具,比如化学、物理和生物学领域。还有什么比这更激动人心的探索之旅和追求目标呢?

所以,我首先把自己看作是一名科学家,其次可能会觉得自己是个企业家,主要是因为这是实现目标最快捷的方式。最后,或许我还算是一名技术工程师,因为说到底,你不会只想在实验室里进行理论推导、思考问题。你实际上是希望能给这个世界带来实实在在的改变。

三、阿尔特曼和阿莫迪预测AGI实现时间,哈萨比斯称定义影响判断

佩里戈:我想稍微谈一谈时间线方面的事情。阿尔特曼和阿莫迪最近都公开表态……

哈萨比斯:那可能是超短的,对吧?

佩里戈:阿尔特曼认为,他预计AGI将在特朗普总统任期内实现。阿莫迪则表示,AGI最早可能2026年实现。

哈萨比斯:我觉得在一定程度上,这取决于你对AGI的定义。由于各种各样的原因,这个定义已经被大打折扣了,比如为了筹集资金,人们出于各种原因可能会这么做。而我们的定义自始至终都保持得非常一致,即具备人类所拥有的所有认知能力的这一概念。

实际上,我对此的测试标准是:一个AI能否凭借爱因斯坦20世纪初所拥有的同等信息量,提出广义相对论呢?所以这可不只是解决一个数学猜想的问题,你能否提出一个有价值的猜想呢?所以我相当确定,我们很快就会有能够解决千禧年数学难题之一的系统,但你能提出一系列像千禧年数学难题那样有趣的猜想吗?

佩里戈:简而言之,这听起来就像是你所描述的科学家和技术专家之间的区别。所有的技术专家都在说:AGI是这样一种系统,它能够以比人类更出色或成本更低的方式,完成具有经济价值的工作。

哈萨比斯:这句话说得真好。也许这就是我如此着迷研发AGI的原因。我一直都特别佩服历史上的科学家。在我看来,真正让人类知识不断增长、向前发展的是他们,而不是那些一门心思把知识用在实际生活里的人。可能,两者对社会都很重要。工程领域和科学领域都是如此。但我认为现有的AI缺乏提出假设的能力。

佩里戈:咱们说得更具体些。你觉得距离出现那种能切实对AI研究作出有意义贡献的自动化研究工具(或系统),我们还有多大差距呢?

哈萨比斯:我觉得距离实现目标还得再过几年时间。我认为当下的编程辅助工具已经相当不错了。而且我猜测,到了明年,它们的表现会极为出色。我们正全力以赴地推进这方面的工作。

Anthropic公司主要聚焦在编程辅助工具的研发上,而我们一直以来更多地是在开展科学领域的研究工作。就为操作系统设计出精巧合理的架构这一点而言,AI仍然比不上那些最顶尖的程序员。

我认为在这一方面,AI还存在欠缺,所以我觉得要达到理想状态,还得再过几年时间。

四、真正的智能建立在现实世界之上,大力投入通用助理、机器人研发

佩里戈:你在Gemini模型中极为重视多模态特性,而且不仅在语言领域构建基础,还将其拓展至现实世界。你在这方面的关注度比其他实验室更高。这是为什么呢?

哈萨比斯:有几个原因。其一,我认为真正的智能必然要求对周围的时空世界有所理解。这对于任何你想要开展的真正意义上的科学研究而言,都是至关重要的。我还认为,这样做实际上能够让语言模型得到提升,而且我们也确实看到了一些成效,因为你切实地将模型建立在了现实世界的情境之中。

尽管实际上,语言自身的发展程度已经远超部分人以及我之前的预期,甚至可以说,有些成果在之前我都觉得不太可能实现。

最后,这也与应用场景相关。因为我心中有两个我们正大力投入研究的应用场景。第一个是通用数字助理的设想,它能在日常生活中为你提供帮助,提升你的工作效率,丰富你的生活体验。

这个数字助理不只是存在于你的电脑里,还能与你形影不离,可能是在你的手机、智能眼镜或者其他设备上,并且时刻都能发挥极大的作用。而要实现这一点,它就必须理解并处理你周围的世界。

其二,对于机器人技术来说,这恰恰是现实世界中的机器人正常运作所不可或缺的要素。机器人必须理解自身所处的空间环境。人类本就是多模态的,不是吗?

我们在屏幕上操作,拥有视觉感知,喜欢观看视频,想要创作图像,也会聆听音频。所以我认为,AI系统需要具备类似的多模态特性,才能以最全面的方式与我们进行互动。

佩里戈:信号基金会的总裁梅雷迪斯・惠特克(Meredith Whittaker)对您刚刚所描述的AGI提出了颇为尖锐的批评,其观点是这种帮助并非平白无故就能获得的。你得拿出大量自己的数据来作为交换。为了让这个智能体发挥作用,你得让它能够获取你生活中的几乎所有信息。谷歌是一家数字广告公司,它收集个人信息以便投放定向广告。您是如何看待智能体对隐私所产生的影响的呢?

哈萨比斯:梅雷迪斯指出这一点是正确的。我很欣赏她在信号公司(Signal)所做的工作。我认为,首先,所有这些功能都应该是用户可以选择开启或使用的,用户要能够自主决定是否参与,是否提供相关数据等。

五、AGI引发哲学思考,呼唤新哲学家给答案

佩里戈:但我们会主动选择参与各种各样的事情,我们会主动选择接受数字追踪。

哈萨比斯:首先,这是你的选择,不过很明显,人们会选择这么做,因为它确实有用。我认为,只有当你完全相信那个智能助手是属于你自己的,这个模式才会行得通,对吧?

它必须得让你觉得值得信赖,因为要让它像现实生活中的人类助手一样,一旦它了解了你,才能真正发挥作用。我的助手们对我的了解甚至比我对自己的了解还要深,这就是为什么我们作为一个团队合作得如此默契。

我觉得这就是你希望从你的数字助手那里得到的那种实用性。但与此同时,你得确保它的信息是不会被泄露的。我们有世界上一些最优秀的安全专家来处理这些事情,以确保它能保护隐私,即使在我们的服务器上信息也是加密的。

我们正在全力以赴地开展这些工作,以便当我们的“阿斯特拉计划(Project Astra)” 的智能助手项目准备好正式投入使用时,这些安全保障措施也能到位。

我认为这将是一个由消费者来做的决定,他们会倾向于选择那些能够保护隐私的系统。而且我觉得边缘计算和边缘模型在这方面也会非常重要,这也是我们如此关注那些性能卓越的小型模型的原因之一,这些小模型能够在单个设备上运行。

佩里戈:我不知道你认为还要过多久,我们才会看到这类技术对劳动力市场产生重大影响。但如果这种情况发生时,它肯定会在政治层面上引起巨大的动荡,对吧?对于应对这种动荡,你有没有什么计划呢?

哈萨比斯:我和很多经济学家探讨过这个问题。首先,这个领域的专家—经济学家和其他相关人士,需要做更多深入严谨的研究工作。当我和经济学家交流时,我不确定在这方面是否已经开展了足够多的研究。

我们正在开发智能体系统,因为它们会更有用。而且我觉得,这也会对就业产生一定的影响,不过我猜测它也会催生其他一些目前还不存在的新工作岗位。

比如你可能会负责管理一组执行日常琐碎事务的智能体,它们或许会做一些背景研究之类的工作,但最终的文章仍由你来撰写,或者完成最终的研究报告,又或者提出研究的思路,比如为什么要研究这些东西。

所以我认为,在下一个阶段,假设你懂得如何使用这些神奇的工具,人类将借助它们获得超能力,对吧?

因此,的确会有变革和冲击,但总体而言,我认为情况会变得更好,会出现更好、更有成就感的工作,而那些更单调乏味的工作则会逐渐消失。过去,技术发展带来的影响就是如此。

不过,当AGI能够胜任众多工作时,可能就会出现这样一个问题,我们能否在全球范围内公平且广泛地分配生产力提升所带来的成果呢?在这之后,还有一个关于意义和目标的问题。这就是下一个哲学层面的问题,实际上如今我们需要一些杰出的新哲学家来思考这个问题。

六、AGI带来极度富足,或需政治变革重新分配财富

佩里戈:我上次在2022年采访你的时候,我们稍微谈到过这个问题,当时你说:“如果你身处一个极度富足的世界,那么不平等的空间应该会更小,产生不平等的途径也会更少。所以,如果AGI的美好愿景得以实现,这将是它所带来的积极影响之一。” 但在那样的世界里,依然会有掌控财富的人和没有财富的人,也会有那些可能不再有工作的劳动者。似乎要实现极度富足的愿景,就需要一场重大的政治变革,才能达到财富重新分配的目的。你能详细阐述一下你认为这将如何实现吗?

哈萨比斯:我个人在这方面并没有花太多时间,不过也许我应该越来越多地关注这个问题。而且,我觉得顶尖的经济学家应该多多思考这个问题。极度富足真正意味着一些事情,比如你解决了核聚变问题,或者研发出了最优电池,又或者实现了超导技术。

假设在AI的帮助下,你把这三件事都解决了。这就意味着能源成本基本上会降为零,而且是清洁可再生的,对吧?

这就意味着所有的用水问题都能迎刃而解,因为你可以建造海水淡化厂,这没问题,因为这只需要能源和海水就行。这也意味着制造火箭燃料…… 你可以用类似的技术从海水中分离出氢和氧,对吧?

所以突然之间,许多支撑资本主义世界的基础要素就不再成立了,因为其基础是能源成本、资源成本以及资源稀缺性。但如果你现在开拓了太空领域,并且能够开采小行星以及做所有那些事情—这需要数十年时间来建设相关基础设施—那么我们应该会进入一个全新的经济时代。

佩里戈:我觉得这根本没有解决不平等的问题,不是吗?开采那些小行星仍然可以获取和积累财富。而土地是有限的。

哈萨比斯:如今有很多东西都是有限的,这就意味着最终这是一场零和博弈。我所设想的是一个至少从资源角度来看不再是零和博弈的世界。所以,仍然存在其他问题,比如人们是否依然渴望权力以及诸如此类的东西呢?很可能是的。

所以这必须从政治层面来加以解决。但至少你已经解决了一个主要问题,那就是在我们目前所处的这个资源有限的世界里,事情最终会变成零和博弈。这虽然不是不平等和冲突的唯一根源,但归根结底,它是冲突的一个主要根源,也是不平等的一个主要根源。

这就是我所说的“极度富足”的含义。从实际意义上讲,我们不再处于一个资源受限的零和世界。但我非常确定,围绕这一点可能需要一种全新的政治哲学。

佩里戈:西方世界通过启蒙运动实现了民主,很大程度上是因为公民有能力拒绝提供劳动,并以推翻国家政权相威胁,不是吗?如果我们真的实现了AGI,似乎我们会失去这两种能力,而这可能对民主不利。

哈萨比斯:也许吧。我的意思是,也许我们得发展出某种更好的东西,我也不确定。毕竟,民主本身也存在一些问题。它绝不是万能的解决方案。我记得前英国首相温斯顿·丘吉尔(Winston Churchill)曾说过类似这样的话:民主是最不算糟糕的政府形式。也许存在更好的形式。

我可以告诉你从技术层面将会发生什么。如果我们把事情做好,最终应该能实现极度富足。前提是我们解决了一些我称之为 “根源性关键问题” 的东西。然后就出现了政治哲学方面的问题。我觉得这是人们低估的问题之一。我觉得我们需要一种关于如何生活的全新哲学理念。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10