數月→幾天:OpenAI被曝縮水模型安全測試,AI競賽埋下隱患

IT之家
04-12

IT之家 4月12日消息,金融時報(FT)昨日(4月11日)發佈博文,報道稱OpenAI大幅壓縮最新大型語言模型(LLM)安全測試時間,此前需要數月時間,而最新o3模型僅有幾天時間。

競爭驅動,安全讓步

據八位知情人士透露,OpenAI大幅壓縮模型的安全測試時間,留給員工和第三方測試團隊“評估”(evaluations,即測試模型風險和性能)時間僅有數天時間,而此前通常會耗時數月時間。

IT之家援引博文介紹,OpenAI面臨來自Meta、Google及xAI等對手的激烈競爭,需快速推出新模型以維持市場優勢。o3模型計劃最早下週發佈,留給測試者安全檢查時間不到一週,而此前GPT-4的測試期長達六個月。

一位測試過GPT-4的人士透露,過去安全測試更徹底,某些危險能力在測試兩個月後才被發現,而如今競爭壓力迫使公司追求速度,忽視潛在風險。

測試不足,監管缺位

全球目前尚未統一AI安全測試標準,但歐盟《AI法案》將於今年晚些時候上線,要求企業對其最強大的模型進行安全測試。

AI Futures Project負責人Daniel Kokotajlo表示,由於缺乏強制監管,企業不會主動披露模型的危險能力,競爭壓力進一步加劇了風險。

OpenAI曾承諾構建定製模型版本,測試其潛在濫用風險,例如是否能協助製造更具傳染性的生物病毒。

這種測試需投入大量資源,包括聘請外部專家、創建特定數據集並進行“微調”(fine-tuning)。但OpenAI僅對較老舊的模型進行有限微調,最新模型如o1和o3-mini未全面測試。前OpenAI安全研究員Steven Adler批評,若不兌現測試承諾,公衆有權知情。

安全測試未覆蓋最終模型

另一問題在於,安全測試通常基於早期“檢查點”(checkpoints),而非最終發佈模型。一位前OpenAI技術人員表示,發佈未經測試的更新模型是“不良做法”,而OpenAI辯稱,其檢查點與最終模型“基本一致”,並通過自動化測試提高效率,確保安全。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10