谷歌政策大轉彎?取消人工智能軍事禁令或引發致命危機

商業週刊
02-11

谷歌的“不作惡”時代已經徹底終結了。

2018年,谷歌母公司Alphabet Inc.的領導層用語氣更溫和的“做正確的事”取代了這條座右銘,現在又放棄了該公司在軍方使用人工智能方面最重要的倫理立場之一。

近日,谷歌刪除了不將人工智能技術用於武器研發或監控應用的承諾,這是該公司2018年起遵守至今的承諾。谷歌目前的“負責任的人工智能技術”原則不再包含這一承諾,該公司人工智能主管德米斯·哈薩比斯(Demis Hassabis)發表了一篇博客文章,解釋了這一變化,將其描述爲不可避免的進步,而不是任何形式的妥協。

“(人工智能)正在變得像手機一樣普及,”哈薩比斯說,這項技術“迅速成長了起來”。

然而,認爲道德倫理準則必須隨着市場“成長”的觀點是錯誤的。的確,正如哈薩比斯所說的那樣,我們生活在一個日益複雜的地緣政治環境中,但放棄戰爭倫理準則可能會帶來失控的後果。

如果將人工智能引入戰場,你就可能讓自動化系統以機器速度相互響應,而沒有時間進行外交干預。戰爭可能會變得更加致命,因爲衝突會在人類來得及干預之前升級。而“乾淨利落”的自動化作戰理念可能會迫使更多的軍方領導人採取行動,儘管人工智能系統會犯很多錯誤,也可能造成平民傷亡。

自動化決策纔是真正的問題。與以往提高軍事效率或增強技術實力的做法不同,人工智能系統可能從根本上改變由誰(或什麼)做出剝奪人類生命的決定。

同樣令人不安的是,在所有人當中,恰恰是哈薩比斯署名支持谷歌這份措辭嚴謹的聲明。早在2018年,谷歌公司就制定了自己的人工智能原則,超過2400名人工智能領域的專家共同簽署了宣言,承諾不從事自主武器的研究,而當時哈薩比斯的態度與現在完全不同。

不到十年後的今天,這一承諾已經沒有多大意義了。威廉·菲茨傑拉德(William Fitzgerald)是谷歌政策團隊的前成員,也是政策和傳播公司Worker Agency的聯合創始人。他說,谷歌多年來一直面臨着巨大的壓力,要求該公司參與軍事合同。

他回憶稱,2017年,前美國國防部副部長帕特里克·沙納漢(Patrick Shanahan)訪問了谷歌雲計算業務位於加利福尼亞州森尼韋爾的總部,當時該部門的員工正在搭建與五角大樓合作開展絕密軍事項目所需的基礎設施,簽訂合同的希望很大。

菲茨傑拉德幫助阻止了這一切。他參與組織了反對“Maven項目”的公司抗議活動,這個項目是谷歌與美國國防部達成的一項協議,旨在開發用於分析無人機畫面的人工智能技術,谷歌員工擔心該項目會導致自動化瞄準。大約有4000名員工簽署了一份請願書,聲明“谷歌不應該涉及戰爭事務”,約有十幾名員工辭職以示抗議。谷歌最終做出讓步,不再續簽合同。

回想起來,菲茨傑拉德認爲這只是一段小插曲。“這是硅谷發展軌跡中的一個反常現象。”他說。

比如,從那以後,OpenAI與國防承包商安杜里爾工業公司(Anduril Industries Inc.)合作,向美國軍方推銷其產品。(就在去年,OpenAI還禁止任何人將其模型用於“武器開發”)。2024年11月,自稱遵循“安全第一”原則的人工智能實驗室Anthropic與帕蘭提爾技術公司(Palantir Technologies Inc.)合作,將其人工智能服務Claude出售給國防承包商。

多年來,谷歌本身難以對自身的工作制定有效的監督機制。2019年,該公司解散了一個有爭議的人工智能倫理委員會,一年後又解僱了兩位最知名的人工智能倫理主管。該公司已經遠遠偏離了最初的目標,以至於再也看不到這些目標。硅谷的同行企業也是如此,本來不應該允許他們自行監管。

不過,如果運氣好的話,谷歌的政策轉向將在下週給政府領導人帶來更大壓力,促使他們爲軍事人工智能的發展制定具有法律約束力的法規,以免競爭態勢和政治壓力使這些法規的制定變得更加困難。

這些法規可以很簡單,規定所有人工智能軍事系統都必須由人類來監督。禁止任何完全自主的武器,這些武器可能在未經人類批准的情況下選擇攻擊目標,並確保此類人工智能系統可以接受審計。

生命未來研究所(Future of Life Institute)提出了一項合理的政策建議,這個智庫得到過埃隆•馬斯克的資助,目前由麻省理工學院物理學家馬克斯·泰格馬克(Max Tegmark)領導。該研究所呼籲建立一個分級管理系統,讓各國當局像對待覈設施一樣對待軍事人工智能系統,要求提供明確無誤的證據來證明系統的安全係數。

在巴黎召開會議的各國政府還應考慮建立一個國際機構來執行這些安全標準,類似於國際原子能機構對核技術的監督。他們應該能夠對違反這些標準的企業(和國家)實施制裁。

谷歌的政策反轉發出了警告。即使是最強大的企業價值觀,也可能在超級火爆的市場和根本不容拒絕的政府壓力下土崩瓦解。企業自我監管的“不作惡”時代已經宣告結束,但我們仍然有機會制定具有約束力的規則,以避免人工智能帶來最糟糕的風險,而自動化戰爭無疑是其中之一。編輯/陳佳靖

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10