AI安全賽道殺出黑馬:傳OpenAI元老攜SSI融資超10億,8個月估值狂飆至300億

智通財經
02-18

智通財經APP獲悉,據知情人士透露,OpenAI的聯合創始人Ilya Sutskever正爲其初創企業Safe Superintelligence籌集超過10億美元的資金,該輪融資的估值預計超過300億美元,這一數字將使Safe Superintelligence躋身全球最具價值的私營科技公司行列,值得一提的是,公司距今成立時間僅8個月。

上述知情人士指出,總部位於舊金山的知名風險投資公司Greenoaks Capital Partners正領導此次對Safe Superintelligence的投資,計劃投資額高達5億美元。值得注意的是,Greenoaks還是人工智能領域的傑出企業Scale AI和Databricks Inc.的重要投資者,這一背景無疑爲Safe Superintelligence的未來發展增添了更多期待。

據悉,此次融資將顯著推高Sutskever公司的估值,相較於之前的50億美元,實現了大幅提升。然而,值得注意的是,融資談判目前仍在緊鑼密鼓地進行中,相關細節仍有變動的可能。

在過去,Safe Superintelligence已從包括紅杉資本和Andreessen Horowitz在內的多家知名投資機構成功籌集資金。對於此次融資,Greenoaks拒絕發表評論。而Sutskever的代表也未能立即回應置評請求。

Sutskever,這位曾在OpenAI擔任首席科學家並在其技術開發中發揮關鍵作用的研究人員,於今年5月離開了OpenAI。一個月後,他與曾在蘋果公司從事人工智能工作的風險投資家Daniel Gross以及前OpenAI研究員Daniel Levy攜手,共同創立了Safe Superintelligence(簡稱SSI)。

SSI專注於安全人工智能系統的開發,儘管該公司目前尚未產生任何收入,且短期內並無銷售人工智能產品的計劃,但其願景清晰而堅定。

值得一提的是,在協助Altman迴歸之前,Sutskever曾是2023年推動OpenAI首席執行官Sam Altman下臺的關鍵人物。此次他帶領的SSI能否在人工智能領域再創佳績,值得業界持續關注。

Safe Superintelligence :安全超級智能的破曉

據瞭解,Safe Superintelligence 旨在構建一個安全且強大的人工智能系統,這一壯舉將在一個純粹的科研機構內完成,該機構短期內並無銷售人工智能產品或服務的打算。換言之,他力求在不受OpenAI、谷歌、Anthropic等競爭對手諸多幹擾的情況下,繼續推進自己的工作。

“Safe Superintelligence的獨特之處在於,它的首要且唯一任務就是打造安全超級智能,”Sutskever在一次關於其計劃的獨家訪談中透露,“它將完全不受外界壓力左右,無需分心於繁雜的產品線,更不必捲入激烈的市場競爭。”

事實上,該公司名稱已鮮明地傳達了Sutskever的核心理念——將人工智能安全置於首位。然而,界定何爲人工智能系統的安全性,或確切地說,何爲真正的人工智能安全,仍是業界亟待解決的關鍵問題。儘管Sutskever對此尚未給出明確答案,但他確實表示,新公司將嘗試通過工程上的突破性進展,從根本上確保人工智能系統的安全,而非僅僅依賴事後添加的防護措施。“我們所說的安全,是指類似於核安全級別的安全,而非‘信任與安全’這樣的寬泛概念,”他強調道。

Sutskever的聯合創始人包括投資者兼前蘋果公司AI部門負責人Daniel Gross,以及OpenAI時期的同事Daniel Levy。Gross因投資包括由著名程序員約翰·卡馬克創立的Keen Technologies在內的多家知名AI初創公司而聞名。Levy則在OpenAI期間與Sutskever共同訓練大型AI模型,積累了豐富經驗。“我認爲現在是啓動這樣一個項目的最佳時機,”Levy表示,“我與Sutskever有着相同的願景:一支精簡而專注的小團隊,共同致力於實現安全的超級智能。”Safe Superintelligence將在加利福尼亞州帕洛阿爾託和以色列特拉維夫設立辦事處,這與其兩位聯合創始人Sutskever和Gross的以色列背景不謀而合。

鑑於Sutskever在人工智能領域的傳奇地位,圍繞其未來走向的不確定性數月來一直是硅谷的熱門話題。從大學研究員到谷歌科學家,再到OpenAI的早期參與者,Sutskever在推動多項人工智能關鍵進展中發揮了核心作用。他倡導OpenAI構建更大規模的模型,這一戰略不僅助力OpenAI超越谷歌,更爲ChatGPT的崛起奠定了堅實基礎。

自去年年底OpenAI的內部紛爭以來,外界對Sutskever計劃的關注度持續攀升。儘管他依然不願透露過多細節,但當被問及與OpenAI現任CEO Altman的關係時,Sutskever僅表示“關係良好”,並透露Altman對新企業“有所瞭解”。談及近幾個月的經歷,他坦言:“這很奇特,很奇怪。我不知道還能給出更貼切的形容。”

Safe Superintelligence在某種程度上是對OpenAI初創理念的迴歸,即作爲一個研究機構,致力於開發在多項任務上能與人類匹敵甚至超越人類的人工智能。然而,隨着籌集鉅額資金以支持計算能力成爲迫切需求,OpenAI的結構也隨之改變,與微軟建立了緊密的合作關係,並推動創收產品的開發。這一難題同樣困擾着所有主要的人工智能參與者,隨着模型規模持續指數級增長,他們不得不爲日益增長的計算需求買單。

這些經濟現實使得Safe Superintelligence對投資者而言成爲一場豪賭,他們押注Sutskever及其團隊能取得突破性進展,在與擁有更大團隊和明顯領先優勢的競爭對手的競爭中脫穎而出。投資者們將投入資金,但不期望在此過程中創造出盈利的熱門產品。至於Safe Superintelligence能否實現這一目標,目前尚不明朗。該公司使用的人工智能行業術語所描述的系統,與大多數大型科技公司追求的人類級人工智能截然不同。業界對於這種智能是否可行,以及公司將如何構建這種智能,尚未達成共識。

儘管如此,鑑於其創始團隊的強大實力和對該領域的深厚興趣,Safe Superintelligence籌集資金的過程可能不會遇到太大阻礙。“在我們面臨的所有挑戰中,籌集資金絕非其中之一,”Gross表示。

幾十年來,研究人員和知識分子一直在探討如何提升人工智能系統的安全性,但相關的深度工程實踐卻遠遠滯後。當前最先進的技術依賴於人類與人工智能的協作,以引導軟件朝着符合人類最佳利益的方向發展。如何防止人工智能系統失控,在很大程度上仍是一個懸而未決的哲學議題。

Sutskever表示,他花了數年時間思考安全問題,並在腦海中構思了一些解決方案。然而,關於安全超級智能的具體細節,他尚未展開討論。“從最基本的角度來看,安全超級智能應具備不會大規模傷害人類的特性,”Sutskever指出,“在此基礎上,我們期望它能成爲一股向善的力量,基於一些核心價值觀運作。我們考慮的一些價值觀可能源於過去幾百年來支撐自由民主的理念,如自由、民主、獨立。”

Sutskever強調,當前主導人工智能領域的大型語言模型將在安全超級智能中扮演重要角色,但其目標是構建更爲強大、功能更爲廣泛的系統。“目前的系統,你與之交談,完成對話,任務即告結束。”他說道,“而我們追求的是更加通用、功能更爲廣泛的系統。想象一下,一個能夠自主開發技術的巨型超級數據中心。這聽起來很瘋狂,對吧?我們希望能爲它的安全性做出貢獻。”

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10