IT之家 2 月 4 日消息,Meta 公司首席執行官馬克・扎克伯格曾承諾,有朝一日將把通用人工智能(AGI)—— 即能夠完成人類所能完成任何任務的人工智能 —— 公開提供給大衆。然而,根據 Meta 最新發布的政策文件,該公司在某些情況下可能會限制其內部開發的高性能人工智能系統的發布。

這份名為「Frontier AI Framework(前沿人工智能框架)」的文件,明確了兩種 Meta 認為發布風險過高的 AI 系統類型:「高風險」系統和「關鍵風險」系統。按照 Meta 的定義,這兩種系統都具備協助實施網絡攻擊、化學攻擊和生物攻擊的能力,區別在於「關鍵風險」系統可能導致「在擬議的部署環境中無法緩解的災難性後果」,而「高風險」系統雖可能使攻擊更容易實施,但不如「關鍵風險」系統那樣可靠或穩定。
IT之家注意到,Meta 在文件中列舉了一些具體攻擊場景,例如「對遵循最佳實踐保護的企業級環境進行端到端自動化入侵」以及「高影響力生物武器的擴散」。Meta 承認,其文件中列出的潛在災難性事件遠非詳盡,但這些是 Meta 認為「最緊迫」且最有可能因發布強大 AI 系統而直接引發的事件。
值得注意的是,Meta 在評估系統風險時,並非僅依賴單一的實證測試,而是綜合內部和外部研究人員的意見,並由「高級別決策者」進行審查。Meta 表示,這是因為目前評估科學尚未「足夠強大,以提供決定系統風險性的明確量化指標」。
如果 Meta 判定某個系統為「高風險」,該公司將限制系統在內部的訪問權限,並在實施風險緩解措施以將風險降至「中等水平」之前,不會發布該系統。而如果系統被判定為「關鍵風險」,Meta 將採取未具體說明的安全防護措施,防止系統被非法獲取,並暫停開發,直到系統能夠被降低危險性為止。
Meta 表示,其「前沿人工智能框架」將隨着人工智能領域的變化而不斷演變。此前,Meta 已承諾在本月的法國人工智能行動峯會上提前發布該框架。這一框架似乎是對公司「開放」開發系統方法受到的批評的一種回應。Meta 一直採用將人工智能技術公開提供(儘管並非通常意義上的開源)的策略,這與選擇將系統置於 API 背後的 OpenAI 等公司形成對比。
在文件中,Meta 表示:「我們相信,在考慮開發和部署先進人工智能的利弊時,有可能以一種既能保留該技術對社會的益處,又能保持適當風險水平的方式,將該技術提供給社會。」