担心成为“AI界奥本海默”!DeepMind、Anthropic CEO同框,26年AGI降临?

新智元
13 Mar

编辑:犀牛

【新智元导读】Hassabis和Dario近日罕见同框,接受《经济学人》的深度访谈。两人对AGI时间表的预测产生分歧——2026年还是更远?还探讨了AI安全的紧迫性,以及他们是否担忧成为“AI界的奥本海默”。

当今世界,谁最有可能成为“AI时代的奥本海默”?

DeepMind的创始人Hassabis与Anthropic的创始人Dario无疑是热门人选。

近日,这两位AI巨头罕见地坐到了一起,在《经济学人》的访谈中,直面AGI(通用人工智能)带来的种种争议与挑战。

想象一下,几年后,你身边出现一个比爱因斯坦还聪明的AI,能设计出围棋这样精妙游戏的规则,甚至推导出全新的科学理论。

这不是科幻,而是Hassabis和Dario正在努力的方向。Dario大胆预测AGI 2026年到来,Hassabis却谨慎表示可能还要再等等。

他们一致认同的是:AI的威力远超以往任何技术,而我们是否准备好了迎接这场变革。

AGI时间表

Dario首先明确说明了什么是他认为的AGI。

“当我们拥有一种AI模型能够做到人类能做的所有事情时,比如像坐在旁边的这位诺贝尔奖得主(Hassabis)那样,在多个领域都能做得很好,可以执行任何一个人类能远距离完成的任务,这些任务可能需要几分钟、几小时、几天或几个月的时间。”Dario说。

“我的猜测是在2026年或者2027年能够实现这一点。”

随后,Dario问Hassabis是否同意他的看法。

Hassabis则认为AGI的出现可能会更远一点,只有50%的机会在5年内出现。他定义AGI的方式是,“一个能够展示所有人类认知能力的系统。”

“我认为我们现在还没有这样的系统,能够像爱因斯坦那样利用当时可获得的信息发明广义相对论。我给出的另一个例子是,你能创造出如围棋一样的游戏吗?不只是下出第37步这样的一手妙棋或构建一个可以击败世界冠军的AlphaGo,你能否真正设计出一种同样美丽的游戏?所以我认为要达到那种能力还需要一点时间。”Hassabis说。

AI的发展与平衡

随后,主持人问,在未来几年很快达到AGI的同时,各国政府需要如何意识到所面临的利害关系?

“我认为人们还没有充分理解这一点。”Hassabis说。

Hassabis认为,虽然AI在短期内被过度炒作,但仍然低估了AI在未来中长期带来的变革程度。他认为一旦这一点得到更多理解,那么就会有更多的基础来推动国际间的合作。

Hassabis说,“我们不能单打独斗,需要一些全球性的规范。我过去曾多次谈到过类似CERN(欧洲核子研究组织)的AGI研究合作模式,基本上是一个国际研究合作,专注于我们在构建第一个AGI时所需迈出的最后几步。”

Dario形容AI是“世界上突然出现了一个新国家,拥有1000万比当今世上任何人类都要聪明的人。”

“你知道,你会问他们的意图是什么?”他说,“特别是如果他们能够自主行动的话。”

Hassabis表示。AI的开发与监管平衡点需要在中间位置。“我认为我们应该拥抱AI带来的巨大机遇。我特别热衷于科学和医学领域。我认为它将彻底改变这些领域。”他说。

但他同时也强调需要意识到存在的风险。一个是是恶意人士将这项通用技术用于不法目的,另一个是来自AGI系统自身失控,或者没有正确的价值观和目标的风险。

AI界的奥本海默

接下来,主持人问了一个比较刺激的问题,“因为你们亲自领导着可能处于这一领域前沿的公司。所以你们做出的个人决定将塑造这项技术。你有没有担心会像罗伯特·奥本海默那样?”

对于这个问题,Hassabis表示一直都在担心这种情景的发生,“看,我一直在担心那样的场景。这就是为什么我睡得不多。”

Hassabis说领导这项技术的人身上肩负着巨大的责任。他认为社会需要考虑什么样的治理机构是必要的,理想情况下,会像联合国一样。

他说,有些人可能认为我们在杞人忧天,或者认为我们是在鼓吹放慢脚步之类的。“但我从没见过有哪个领域会出现这样的情况:就是带头的研究者们自己也在提出警告。我们现在面对的东西实在是颠覆性极强,威力巨大,而且是前所未有的。”

Hassabis觉得AI它并不是“又一项新技术”那么简单。他注意到,仍然有人在谈“这是非常重要的技术,但也只是又一个技术而已”。

“可我觉得它完全不同于以往任何技术。我感觉并不是所有人都真正明白这一点。”,Hassabis表示。

Dario的想法和Hassabis完全一致。他说,“我做的几乎每一个决定都像是在刀刃上保持平衡。”

“我认为我们还是得找到一种方式来建立一个更加稳健的治理结构,不能让这个技术只掌握在少数人手中。”Dario说。

Dario说早在2023年,他们就做了一些关于AI系统能否生成在谷歌或教科书中找不到的、可用于制造生物武器的信息的工作。

他们的结论是可以。Dario表示,AI刚刚开始能够做到这一点。目前还不太危险,但是每个模型都比之前的更好。

Dario表示,AI模型的风险最好在实验室观察到,如果这种风险在现实中观察到将是一个非常糟糕的结果。

智能体与未来

最后,主持人用了一个更积极的话题来结束。

“能不能各自举出一件事,就是你们认为在未来一年里,我们会看到的一个迹象,显示我们正在往你们所期望的方向前进,以及这件事将带来什幺正面的影响?”

Hassabis首先说我们会看到更多智能体的出现,这些系统可以在某种程度上自主完成任务,达成一些目标,在现实世界里行动。

他认为这会催生一整类全新的实用系统,比如助理型系统,为人节约时间,提高生产力。

Hassabis认为这些智能体系统会变得更广泛地应用于日常生活,而不再只是局限在某些小众领域。再往后看,他则希望看到AI系统真正具有创造发明能力,“不仅仅是去解决某个数学猜想,而是能够自己提出一个非常有趣的新猜想,或者提出一套新的理论。”

Dario表示会关注在AI写代码,以及AI是否能用来做AI研究这一层面。

他说假如到了今年年底,我们能“构建更强AI系统的整体生产率提高50%,甚至翻一倍,那就证明我之前所说的2026或2027年左右实现AGI的时间表还是比较可信的。”

“要是比这个速度慢很多,那我就会倾向于相信Demis的设想更有可能——虽然他的时间表依然非常激进,但相比之下还是要稍微长一点。”

参考资料:

https://www.youtube.com/watch?v=4poqjZlM8Lo

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10