在週三發佈的一份政策文件中,前谷歌首席執行官埃裏克・施密特、Scale AI 公司首席執行官亞歷山大・王以及人工智能安全中心主任丹・亨德里克斯表示,美國不應以 “曼哈頓計劃” 式的方式大力推動開發具有 “超人” 智能的人工智能系統,即通用人工智能(AGI)。
這篇題爲《超級智能戰略》的文件斷言,美國若積極爭取獨家掌控超級智能人工智能系統,可能會招致同行的強烈報復,報復形式很可能是網絡攻擊,這可能會破壞國際關係的穩定。
文件的共同作者寫道:“(通用人工智能的)‘曼哈頓計劃’ 假定競爭對手會默許一種持久的不平衡狀態或是全球性毀滅,而不會採取行動去阻止它。一開始旨在研發超級武器並實現全球控制的行動,有可能引發敵對的反制措施,並加劇緊張局勢,從而破壞這一戰略聲稱要維護的穩定。”
這份文件由美國人工智能行業三位極具影響力的人物共同撰寫。就在幾個月前,美國國會一個委員會提議開展一項 “曼哈頓計劃” 式的行動,爲通用人工智能的開發提供資金,其模式效仿的是美國在 20 世紀 40 年代的原子彈計劃。美國能源部長克里斯・賴特最近與 OpenAI 聯合創始人格雷格・布羅克曼一同站在一個超級計算機站點前時表示,美國正處於人工智能領域 “新曼哈頓計劃的開端”。
《超級智能戰略》這份文件對近幾個月來一些美國政策制定者和行業領袖所倡導的觀點提出了挑戰,該觀點認爲由政府支持的通用人工智能研發項目是與他國競爭的最佳方式。
在施密特、王和亨德里克斯看來,美國在通用人工智能領域處於一種類似於相互確保摧毀的對峙狀態。就像全球大國不會尋求對核武器的壟斷(因爲這可能會引發對手的先發制人打擊)一樣,施密特及其共同作者認爲,美國在競相主導極其強大的人工智能系統時應持謹慎態度。
雖然將人工智能系統比作核武器聽起來有些極端,但世界各國已將人工智能視爲一項重要的軍事優勢。美國五角大樓已經表示,人工智能正在幫助加快軍方的 “殺傷鏈” 速度。
施密特等人提出了一個他們稱之爲 “相互確保人工智能失靈”(MAIM)的概念,即各國政府可以主動禁用具有威脅性的人工智能項目,而不是等待對手將通用人工智能武器化。
施密特、王和亨德里克斯提議,美國應將重點從 “在追求超級智能的競賽中獲勝” 轉移到開發能阻止其他國家創建超級智能人工智能的方法上。這些共同作者認爲,政府應該 “擴充其網絡攻擊手段,以禁用其他國家控制的具有威脅性的人工智能項目”,同時限制對手獲取先進的人工智能芯片和開源模型。
這些共同作者指出了在人工智能政策領域存在的一種二分法。一方面是 “悲觀論者”,他們認爲人工智能發展帶來的災難性後果已不可避免,並主張各國放緩人工智能的發展進程。另一方面是 “鴕鳥派”,他們認爲各國應加速人工智能的發展,並基本上只是寄希望於一切都會順利解決。
該文件提出了第三條道路:一種以防禦策略爲優先的、有節制的通用人工智能開發方式。
這一策略出自施密特之口尤其引人關注,因爲他此前曾直言美國需要在開發先進人工智能系統方面積極。
特朗普政府似乎堅決要推進美國的人工智能發展。然而,正如這些共同作者所指出的,美國在通用人工智能方面的決策並非孤立存在。
當全世界都在關注美國挑戰人工智能極限的舉動時,施密特及其共同作者認爲,採取防禦性策略可能更爲明智。
責任編輯:丁文武
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。