AI安全赛道杀出黑马:传OpenAI元老携SSI融资超10亿,8个月估值狂飙至300亿

智通财经
18 Feb

智通财经APP获悉,据知情人士透露,OpenAI的联合创始人Ilya Sutskever正为其初创企业Safe Superintelligence筹集超过10亿美元的资金,该轮融资的估值预计超过300亿美元,这一数字将使Safe Superintelligence跻身全球最具价值的私营科技公司行列,值得一提的是,公司距今成立时间仅8个月。

上述知情人士指出,总部位于旧金山的知名风险投资公司Greenoaks Capital Partners正领导此次对Safe Superintelligence的投资,计划投资额高达5亿美元。值得注意的是,Greenoaks还是人工智能领域的杰出企业Scale AI和Databricks Inc.的重要投资者,这一背景无疑为Safe Superintelligence的未来发展增添了更多期待。

据悉,此次融资将显著推高Sutskever公司的估值,相较于之前的50亿美元,实现了大幅提升。然而,值得注意的是,融资谈判目前仍在紧锣密鼓地进行中,相关细节仍有变动的可能。

在过去,Safe Superintelligence已从包括红杉资本和Andreessen Horowitz在内的多家知名投资机构成功筹集资金。对于此次融资,Greenoaks拒绝发表评论。而Sutskever的代表也未能立即回应置评请求。

Sutskever,这位曾在OpenAI担任首席科学家并在其技术开发中发挥关键作用的研究人员,于今年5月离开了OpenAI。一个月后,他与曾在苹果公司从事人工智能工作的风险投资家Daniel Gross以及前OpenAI研究员Daniel Levy携手,共同创立了Safe Superintelligence(简称SSI)。

SSI专注于安全人工智能系统的开发,尽管该公司目前尚未产生任何收入,且短期内并无销售人工智能产品的计划,但其愿景清晰而坚定。

值得一提的是,在协助Altman回归之前,Sutskever曾是2023年推动OpenAI首席执行官Sam Altman下台的关键人物。此次他带领的SSI能否在人工智能领域再创佳绩,值得业界持续关注。

Safe Superintelligence :安全超级智能的破晓

据了解,Safe Superintelligence 旨在构建一个安全且强大的人工智能系统,这一壮举将在一个纯粹的科研机构内完成,该机构短期内并无销售人工智能产品或服务的打算。换言之,他力求在不受OpenAI、谷歌、Anthropic等竞争对手诸多干扰的情况下,继续推进自己的工作。

“Safe Superintelligence的独特之处在于,它的首要且唯一任务就是打造安全超级智能,”Sutskever在一次关于其计划的独家访谈中透露,“它将完全不受外界压力左右,无需分心于繁杂的产品线,更不必卷入激烈的市场竞争。”

事实上,该公司名称已鲜明地传达了Sutskever的核心理念——将人工智能安全置于首位。然而,界定何为人工智能系统的安全性,或确切地说,何为真正的人工智能安全,仍是业界亟待解决的关键问题。尽管Sutskever对此尚未给出明确答案,但他确实表示,新公司将尝试通过工程上的突破性进展,从根本上确保人工智能系统的安全,而非仅仅依赖事后添加的防护措施。“我们所说的安全,是指类似于核安全级别的安全,而非‘信任与安全’这样的宽泛概念,”他强调道。

Sutskever的联合创始人包括投资者兼前苹果公司AI部门负责人Daniel Gross,以及OpenAI时期的同事Daniel Levy。Gross因投资包括由著名程序员约翰·卡马克创立的Keen Technologies在内的多家知名AI初创公司而闻名。Levy则在OpenAI期间与Sutskever共同训练大型AI模型,积累了丰富经验。“我认为现在是启动这样一个项目的最佳时机,”Levy表示,“我与Sutskever有着相同的愿景:一支精简而专注的小团队,共同致力于实现安全的超级智能。”Safe Superintelligence将在加利福尼亚州帕洛阿尔托和以色列特拉维夫设立办事处,这与其两位联合创始人Sutskever和Gross的以色列背景不谋而合。

鉴于Sutskever在人工智能领域的传奇地位,围绕其未来走向的不确定性数月来一直是硅谷的热门话题。从大学研究员到谷歌科学家,再到OpenAI的早期参与者,Sutskever在推动多项人工智能关键进展中发挥了核心作用。他倡导OpenAI构建更大规模的模型,这一战略不仅助力OpenAI超越谷歌,更为ChatGPT的崛起奠定了坚实基础。

自去年年底OpenAI的内部纷争以来,外界对Sutskever计划的关注度持续攀升。尽管他依然不愿透露过多细节,但当被问及与OpenAI现任CEO Altman的关系时,Sutskever仅表示“关系良好”,并透露Altman对新企业“有所了解”。谈及近几个月的经历,他坦言:“这很奇特,很奇怪。我不知道还能给出更贴切的形容。”

Safe Superintelligence在某种程度上是对OpenAI初创理念的回归,即作为一个研究机构,致力于开发在多项任务上能与人类匹敌甚至超越人类的人工智能。然而,随着筹集巨额资金以支持计算能力成为迫切需求,OpenAI的结构也随之改变,与微软建立了紧密的合作关系,并推动创收产品的开发。这一难题同样困扰着所有主要的人工智能参与者,随着模型规模持续指数级增长,他们不得不为日益增长的计算需求买单。

这些经济现实使得Safe Superintelligence对投资者而言成为一场豪赌,他们押注Sutskever及其团队能取得突破性进展,在与拥有更大团队和明显领先优势的竞争对手的竞争中脱颖而出。投资者们将投入资金,但不期望在此过程中创造出盈利的热门产品。至于Safe Superintelligence能否实现这一目标,目前尚不明朗。该公司使用的人工智能行业术语所描述的系统,与大多数大型科技公司追求的人类级人工智能截然不同。业界对于这种智能是否可行,以及公司将如何构建这种智能,尚未达成共识。

尽管如此,鉴于其创始团队的强大实力和对该领域的深厚兴趣,Safe Superintelligence筹集资金的过程可能不会遇到太大阻碍。“在我们面临的所有挑战中,筹集资金绝非其中之一,”Gross表示。

几十年来,研究人员和知识分子一直在探讨如何提升人工智能系统的安全性,但相关的深度工程实践却远远滞后。当前最先进的技术依赖于人类与人工智能的协作,以引导软件朝着符合人类最佳利益的方向发展。如何防止人工智能系统失控,在很大程度上仍是一个悬而未决的哲学议题。

Sutskever表示,他花了数年时间思考安全问题,并在脑海中构思了一些解决方案。然而,关于安全超级智能的具体细节,他尚未展开讨论。“从最基本的角度来看,安全超级智能应具备不会大规模伤害人类的特性,”Sutskever指出,“在此基础上,我们期望它能成为一股向善的力量,基于一些核心价值观运作。我们考虑的一些价值观可能源于过去几百年来支撑自由民主的理念,如自由、民主、独立。”

Sutskever强调,当前主导人工智能领域的大型语言模型将在安全超级智能中扮演重要角色,但其目标是构建更为强大、功能更为广泛的系统。“目前的系统,你与之交谈,完成对话,任务即告结束。”他说道,“而我们追求的是更加通用、功能更为广泛的系统。想象一下,一个能够自主开发技术的巨型超级数据中心。这听起来很疯狂,对吧?我们希望能为它的安全性做出贡献。”

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10