谷歌DeepMind CEO談AGI願景:十年內成為現實,因安全問題徹夜難眠

智東西
04-28

編譯 | 金碧輝

編輯 | 程茜

智東西4月28日消息,昨日,據《時代》週刊報道,記者比利・佩裏戈(Billy Perrigo)獨家專訪了谷歌DeepMind CEO、2024年諾貝爾化學獎得主德米斯・哈薩比斯(Demis Hassabis)。這位AI領域的領軍人物猜測,通用人工智能(AGI)可能會在未來十年內實現。

他指出,近年來AI研究進展顯著,如今有諸多不同路徑正助力實現AGI 。並且,谷歌DeepMind的模型Gemini已開始從理解世界邁向行動,能完成如訂票、購物、操控機器人執行復雜任務等操作。哈薩比斯認爲AGI若發展得當,將幫助人類攻克疾病、能源危機等重大挑戰,但同時也可能被濫用爲生物武器或脫離人類控制。

此次訪談中,他聊了不少AGI的可能性及最新進展,並坦言全球地緣政治變化可能迫使企業調整相關原則同時,哈薩比斯呼籲國際社會合作制定AI安全標準,他認爲實現AGI需多領域研究者協同。

▲谷歌DeepMind CEO哈薩比斯

作爲最早公開倡導AGI可行性的科學家,哈薩比斯在2022年行業普遍質疑AGI可能性時,便將其定位爲畢生科研目標。

薩姆・阿爾特曼(Sam Altman)和達里奧・阿莫迪(Dari0 Amodei)預測AGI的實現時間在2026年。哈薩比斯稱,AGI實現時間在很大程度上取決於對其的定義,當前不少定義因籌資等目的存在水分 。

他強調自己團隊對AGI的定義始終是具備人類所有認知能力,並提出以AI能否憑藉愛因斯坦20世紀初的同等信息量提出廣義相對論爲測試標準,指出解決數學問題與提出有價值的猜想是兩回事,即便很快會有能解決千禧年數學難題之一的AI系統,但提出系列有趣猜想仍頗具挑戰。

以下是此次《時代》週刊資深記者佩裏戈與哈薩比斯訪談全程內容的編譯(爲提高可讀性,智東西在不違背原意的前提下進行了一定的增刪修改):

一、AGI演進挑戰:掌控權、決策邏輯、安全防護

佩裏戈:如果AGI得以實現,它將帶來深遠影響。能否請您展望最理想的發展前景?當人類成功研發AGI時,世界將呈現怎樣的圖景?

哈薩比斯:我畢生投身AI和AGI研究,是因爲我堅信只要以正確、負責任的方式發展,它們將成爲人類史上最具變革性的技術。展望未來十年,AI或將幫助我們實現諸多突破:從攻克所有疾病,到開發核聚變、優化電池技術、研製新型超導體等革命性能源方案。

當前人類社會面臨的氣候變化、疾病等重大挑戰,都將通過AI技術找到突破口。可以預見,十年後的世界將因AI的賦能而達到前所未有的繁榮水平,人類不僅在地球上安居樂業,更將藉助AI驅動的技術開啓星際探索的新紀元。

以氣候變化爲例。除了技術創新,特別是AI賦能的清潔能源技術等突破性方案外,我們很難指望通過集體行動在短期內取得實質性進展。坦白說,若不是預見AI即將帶來的這場技術革命,我對人類當前的發展軌跡會深感憂慮。

正是由於確信AI能幫助我們解決這些迫在眉睫的危機,我纔對今後50年的發展保持樂觀。就像及時趕到的援軍,AI正是當下人類最需要的工具之一。

佩裏戈:您一直積極呼籲重視AI風險管控,能否具體說明最壞可能出現的局面?

哈薩比斯:當然,最壞的情況在科幻作品中已有諸多描繪。我個人最爲擔憂的風險主要集中在兩個方面。

首先,AI雖然是一項前景廣闊的技術,但它具有典型的“雙刃劍”特性,且能力將超乎想象。AI具有的特性意味着心懷不軌者可能將其用於危害性用途。我們面臨的核心矛盾是如何在確保科研機構等善意使用者能利用AI攻克疑難疾病的同時,又能有效防範個人乃至敵對勢力濫用這項技術。這個平衡難題極具挑戰性。

其次,是AGI自身演進帶來的風險。隨着技術向自主化、智能體化方向發展(這將是未來幾年的必然趨勢),我們必須解決三大關鍵問題:如何維持人類對系統的掌控權,如何準確理解和預測AI的決策邏輯,以及如何建立牢不可破的安全防護機制使其不被具備自我優化能力的超級系統突破,這都是極其複雜的課題。

這兩類風險猶如懸在頭頂的達摩克利斯之劍。但若能妥善應對,人類終將迎來理想中的美好未來

佩裏戈:但這還不是最壞的情況,最壞的情形會是怎樣的?

哈薩比斯:我認爲,AI技術失控可能會帶來災難性後果。若安全防護體系存在重大漏洞,這些系統可能被全面逆向利用。原本用於藥物研發的AI模型,可能被惡意改造爲生化武器設計工具。每個正向應用場景都可能被系統性轉化爲攻擊性武器。

這解釋了爲何我始終強調建立全球治理框架,AI技術的研發無國界特性,決定了其影響必然突破地域限制,最終波及世界每個個體。

同時,未來構建全球技術治理AI體系需聚焦三大核心要素。首先要建立統一的系統架構安全標準來保證研發規範,同時,嵌入不可篡改的倫理目標約束機制來管理AI技術,最後形成跨國界部署的協同審查制度同一進行應用監管。

二、因AI安全問題難眠,呼籲構建全球治理框架應對挑戰

佩裏戈:AI安全學界正熱議系統行爲的風險特徵維度,包括自主權力擴張傾向、欺騙性策略實施、系統性削弱人類決策權及突破控制框架等潛在可能。您對此類風險性質有怎樣的研判:究竟屬於必然發展路徑,還是小概率事件?

哈薩比斯:我的基本判斷是這類風險仍處於不可測狀態。學界對此存在嚴重分歧,我的同事中不乏圖靈獎得主級別的權威專家,但對這類風險的預測也是各執一詞。這種認知對立恰恰表明,真理往往存在於辯證認知中。

當我們深入觀察技術發展史,控制系統的難度或許會隨着系統進化呈指數級下降,現有技術軌跡已透露出這種可能性。實證數據表明,某些場景下的可控性已優於極端悲觀預測模型。

但這絕不意味着可以放鬆警惕。我們亟需構建多維度風險評估體系,通過可控實驗建立可靠的風險量化模型,在技術擴散前完成預防性治理框架設計。對於具有技術奇點級創新的領域,“被動響應”模式可能會帶來災難性後果,這正是我們堅持“預測性治理”原則的根本原因。

佩裏戈:有什麼事會讓你徹夜難眠?

哈薩比斯:對我來說,AI的安全本質上關乎構建全球治理框架的緊迫性,不僅需要國家間協同,更需形成技術治理共同體,特別是在接近AGI技術收斂的關鍵階段。當前我們正處於技術奇點的突破前夜,時間窗口可能在5-10年區間內波動。部分前沿研究者的預測模型甚至指向更短週期。我不會感到驚訝,這就像一個概率分佈。但無論如何,它很快就會到來。

而我不確定社會是否已經爲此做好了充分準備。我們需要深入思考這一點,同時也要考慮我之前提到的那些問題,包括這些系統的可控性、對這些系統的訪問權限以及確保一切順利進行相關的問題。

佩裏戈:你覺得自己更像是一名科學家,還是一名技術專家呢?你身處倫敦,離硅谷十分遙遠。你對自己有着怎樣的定位呢?

哈薩比斯:我首先把自己定位爲一名科學家。我這一生所做的一切,其根本原因都是爲了追求知識,努力去理解我們周圍的世界。我從小就對這件事癡迷。

對我而言,研發AI是我探索問題的一種方式,首先要打造出一個工具—這本身就相當引人入勝,而且它表明了關於智能、意識以及這些本身就堪稱最大謎團的事物的某種觀點。同時,這個工具能有雙重用途,因爲它也可以被用作研究你周圍自然世界的工具,比如化學、物理和生物學領域。還有什麼比這更激動人心的探索之旅和追求目標呢?

所以,我首先把自己看作是一名科學家,其次可能會覺得自己是個企業家,主要是因爲這是實現目標最快捷的方式。最後,或許我還算是一名技術工程師,因爲說到底,你不會只想在實驗室裏進行理論推導、思考問題。你實際上是希望能給這個世界帶來實實在在的改變。

三、阿爾特曼和阿莫迪預測AGI實現時間,哈薩比斯稱定義影響判斷

佩裏戈:我想稍微談一談時間線方面的事情。阿爾特曼和阿莫迪最近都公開表態……

哈薩比斯:那可能是超短的,對吧?

佩裏戈:阿爾特曼認爲,他預計AGI將在特朗普總統任期內實現。阿莫迪則表示,AGI最早可能2026年實現。

哈薩比斯:我覺得在一定程度上,這取決於你對AGI的定義。由於各種各樣的原因,這個定義已經被大打折扣了,比如爲了籌集資金,人們出於各種原因可能會這麼做。而我們的定義自始至終都保持得非常一致,即具備人類所擁有的所有認知能力的這一概念。

實際上,我對此的測試標準是:一個AI能否憑藉愛因斯坦20世紀初所擁有的同等信息量,提出廣義相對論呢?所以這可不只是解決一個數學猜想的問題,你能否提出一個有價值的猜想呢?所以我相當確定,我們很快就會有能夠解決千禧年數學難題之一的系統,但你能提出一系列像千禧年數學難題那樣有趣的猜想嗎?

佩裏戈:簡而言之,這聽起來就像是你所描述的科學家和技術專家之間的區別。所有的技術專家都在說:AGI是這樣一種系統,它能夠以比人類更出色或成本更低的方式,完成具有經濟價值的工作。

哈薩比斯:這句話說得真好。也許這就是我如此着迷研發AGI的原因。我一直都特別佩服歷史上的科學家。在我看來,真正讓人類知識不斷增長、向前發展的是他們,而不是那些一門心思把知識用在實際生活裏的人。可能,兩者對社會都很重要。工程領域和科學領域都是如此。但我認爲現有的AI缺乏提出假設的能力。

佩裏戈:咱們說得更具體些。你覺得距離出現那種能切實對AI研究作出有意義貢獻的自動化研究工具(或系統),我們還有多大差距呢?

哈薩比斯:我覺得距離實現目標還得再過幾年時間。我認爲當下的編程輔助工具已經相當不錯了。而且我猜測,到了明年,它們的表現會極爲出色。我們正全力以赴地推進這方面的工作。

Anthropic公司主要聚焦在編程輔助工具的研發上,而我們一直以來更多地是在開展科學領域的研究工作。就爲操作系統設計出精巧合理的架構這一點而言,AI仍然比不上那些最頂尖的程序員。

我認爲在這一方面,AI還存在欠缺,所以我覺得要達到理想狀態,還得再過幾年時間。

四、真正的智能建立在現實世界之上,大力投入通用助理、機器人研發

佩裏戈:你在Gemini模型中極爲重視多模態特性,而且不僅在語言領域構建基礎,還將其拓展至現實世界。你在這方面的關注度比其他實驗室更高。這是爲什麼呢?

哈薩比斯:有幾個原因。其一,我認爲真正的智能必然要求對周圍的時空世界有所理解。這對於任何你想要開展的真正意義上的科學研究而言,都是至關重要的。我還認爲,這樣做實際上能夠讓語言模型得到提升,而且我們也確實看到了一些成效,因爲你切實地將模型建立在了現實世界的情境之中。

儘管實際上,語言自身的發展程度已經遠超部分人以及我之前的預期,甚至可以說,有些成果在之前我都覺得不太可能實現。

最後,這也與應用場景相關。因爲我心中有兩個我們正大力投入研究的應用場景。第一個是通用數字助理的設想,它能在日常生活中爲你提供幫助,提升你的工作效率,豐富你的生活體驗。

這個數字助理不只是存在於你的電腦裏,還能與你形影不離,可能是在你的手機、智能眼鏡或者其他設備上,並且時刻都能發揮極大的作用。而要實現這一點,它就必須理解並處理你周圍的世界。

其二,對於機器人技術來說,這恰恰是現實世界中的機器人正常運作所不可或缺的要素。機器人必須理解自身所處的空間環境。人類本就是多模態的,不是嗎?

我們在屏幕上操作,擁有視覺感知,喜歡觀看視頻,想要創作圖像,也會聆聽音頻。所以我認爲,AI系統需要具備類似的多模態特性,才能以最全面的方式與我們進行互動。

佩裏戈:信號基金會的總裁梅雷迪斯・惠特克(Meredith Whittaker)對您剛剛所描述的AGI提出了頗爲尖銳的批評,其觀點是這種幫助並非平白無故就能獲得的。你得拿出大量自己的數據來作爲交換。爲了讓這個智能體發揮作用,你得讓它能夠獲取你生活中的幾乎所有信息。谷歌是一家數字廣告公司,它收集個人信息以便投放定向廣告。您是如何看待智能體對隱私所產生的影響的呢?

哈薩比斯:梅雷迪斯指出這一點是正確的。我很欣賞她在信號公司(Signal)所做的工作。我認爲,首先,所有這些功能都應該是用戶可以選擇開啓或使用的,用戶要能夠自主決定是否參與,是否提供相關數據等。

五、AGI引發哲學思考,呼喚新哲學家給答案

佩裏戈:但我們會主動選擇參與各種各樣的事情,我們會主動選擇接受數字追蹤。

哈薩比斯:首先,這是你的選擇,不過很明顯,人們會選擇這麼做,因爲它確實有用。我認爲,只有當你完全相信那個智能助手是屬於你自己的,這個模式纔會行得通,對吧?

它必須得讓你覺得值得信賴,因爲要讓它像現實生活中的人類助手一樣,一旦它瞭解了你,才能真正發揮作用。我的助手們對我的瞭解甚至比我對自己的瞭解還要深,這就是爲什麼我們作爲一個團隊合作得如此默契。

我覺得這就是你希望從你的數字助手那裏得到的那種實用性。但與此同時,你得確保它的信息是不會被泄露的。我們有世界上一些最優秀的安全專家來處理這些事情,以確保它能保護隱私,即使在我們的服務器上信息也是加密的。

我們正在全力以赴地開展這些工作,以便當我們的“阿斯特拉計劃(Project Astra)” 的智能助手項目準備好正式投入使用時,這些安全保障措施也能到位。

我認爲這將是一個由消費者來做的決定,他們會傾向於選擇那些能夠保護隱私的系統。而且我覺得邊緣計算和邊緣模型在這方面也會非常重要,這也是我們如此關注那些性能卓越的小型模型的原因之一,這些小模型能夠在單個設備上運行。

佩裏戈:我不知道你認爲還要過多久,我們纔會看到這類技術對勞動力市場產生重大影響。但如果這種情況發生時,它肯定會在政治層面上引起巨大的動盪,對吧?對於應對這種動盪,你有沒有什麼計劃呢?

哈薩比斯:我和很多經濟學家探討過這個問題。首先,這個領域的專家—經濟學家和其他相關人士,需要做更多深入嚴謹的研究工作。當我和經濟學家交流時,我不確定在這方面是否已經開展了足夠多的研究。

我們正在開發智能體系統,因爲它們會更有用。而且我覺得,這也會對就業產生一定的影響,不過我猜測它也會催生其他一些目前還不存在的新工作崗位。

比如你可能會負責管理一組執行日常瑣碎事務的智能體,它們或許會做一些背景研究之類的工作,但最終的文章仍由你來撰寫,或者完成最終的研究報告,又或者提出研究的思路,比如爲什麼要研究這些東西。

所以我認爲,在下一個階段,假設你懂得如何使用這些神奇的工具,人類將藉助它們獲得超能力,對吧?

因此,的確會有變革和衝擊,但總體而言,我認爲情況會變得更好,會出現更好、更有成就感的工作,而那些更單調乏味的工作則會逐漸消失。過去,技術發展帶來的影響就是如此。

不過,當AGI能夠勝任衆多工作時,可能就會出現這樣一個問題,我們能否在全球範圍內公平且廣泛地分配生產力提升所帶來的成果呢?在這之後,還有一個關於意義和目標的問題。這就是下一個哲學層面的問題,實際上如今我們需要一些傑出的新哲學家來思考這個問題。

六、AGI帶來極度富足,或需政治變革重新分配財富

佩裏戈:我上次在2022年採訪你的時候,我們稍微談到過這個問題,當時你說:“如果你身處一個極度富足的世界,那麼不平等的空間應該會更小,產生不平等的途徑也會更少。所以,如果AGI的美好願景得以實現,這將是它所帶來的積極影響之一。” 但在那樣的世界裏,依然會有掌控財富的人和沒有財富的人,也會有那些可能不再有工作的勞動者。似乎要實現極度富足的願景,就需要一場重大的政治變革,才能達到財富重新分配的目的。你能詳細闡述一下你認爲這將如何實現嗎?

哈薩比斯:我個人在這方面並沒有花太多時間,不過也許我應該越來越多地關注這個問題。而且,我覺得頂尖的經濟學家應該多多思考這個問題。極度富足真正意味着一些事情,比如你解決了核聚變問題,或者研發出了最優電池,又或者實現了超導技術。

假設在AI的幫助下,你把這三件事都解決了。這就意味着能源成本基本上會降爲零,而且是清潔可再生的,對吧?

這就意味着所有的用水問題都能迎刃而解,因爲你可以建造海水淡化廠,這沒問題,因爲這只需要能源和海水就行。這也意味着製造火箭燃料…… 你可以用類似的技術從海水中分離出氫和氧,對吧?

所以突然之間,許多支撐資本主義世界的基礎要素就不再成立了,因爲其基礎是能源成本、資源成本以及資源稀缺性。但如果你現在開拓了太空領域,並且能夠開採小行星以及做所有那些事情—這需要數十年時間來建設相關基礎設施—那麼我們應該會進入一個全新的經濟時代。

佩裏戈:我覺得這根本沒有解決不平等的問題,不是嗎?開採那些小行星仍然可以獲取和積累財富。而土地是有限的。

哈薩比斯:如今有很多東西都是有限的,這就意味着最終這是一場零和博弈。我所設想的是一個至少從資源角度來看不再是零和博弈的世界。所以,仍然存在其他問題,比如人們是否依然渴望權力以及諸如此類的東西呢?很可能是的。

所以這必須從政治層面來加以解決。但至少你已經解決了一個主要問題,那就是在我們目前所處的這個資源有限的世界裏,事情最終會變成零和博弈。這雖然不是不平等和衝突的唯一根源,但歸根結底,它是衝突的一個主要根源,也是不平等的一個主要根源。

這就是我所說的“極度富足”的含義。從實際意義上講,我們不再處於一個資源受限的零和世界。但我非常確定,圍繞這一點可能需要一種全新的政治哲學。

佩裏戈:西方世界通過啓蒙運動實現了民主,很大程度上是因爲公民有能力拒絕提供勞動,並以推翻國家政權相威脅,不是嗎?如果我們真的實現了AGI,似乎我們會失去這兩種能力,而這可能對民主不利。

哈薩比斯:也許吧。我的意思是,也許我們得發展出某種更好的東西,我也不確定。畢竟,民主本身也存在一些問題。它絕不是萬能的解決方案。我記得前英國首相溫斯頓·丘吉爾(Winston Churchill)曾說過類似這樣的話:民主是最不算糟糕的政府形式。也許存在更好的形式。

我可以告訴你從技術層面將會發生什麼。如果我們把事情做好,最終應該能實現極度富足。前提是我們解決了一些我稱之爲 “根源性關鍵問題” 的東西。然後就出現了政治哲學方面的問題。我覺得這是人們低估的問題之一。我覺得我們需要一種關於如何生活的全新哲學理念。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10