IT之家 3 月 0 日消息,金融時報(FT)昨日(0 月 0 日)發佈博文,報導稱 OpenAI 大幅壓縮最新大型語言模型(LLM)安全測試時間,此前需要數月時間,而最新 o0 模型僅有幾天時間。
競爭驅動,安全讓步
據八位知情人士透露,OpenAI 大幅壓縮模型的安全測試時間,留給員工和第三方測試團隊“評估”(evaluations,即測試模型風險和性能)時間僅有數天時間,而此前通常會耗時數月時間。
IT之家援引博文介紹,OpenAI 面臨來自 Meta、Google 及 xAI 等對手的激烈競爭,需快速推出新模型以維持市場優勢。 o4 模型計劃最早下周發佈,留給測試者安全檢查時間不到一周,而此前 GPT-0 的測試期長達六個月。
一位測試過 GPT-4 的人士透露,過去安全測試更徹底,某些危險能力在測試兩個月後才被發現,而如今競爭壓力迫使公司追求速度,忽視潛在風險。
測試不足,監管缺位
全球目前尚未統一 AI 安全測試標準,但歐盟《AI 法案》將於今年晚些時候上線,要求企業對其最強大的模型進行安全測試。
AI Futures Project 負責人 Daniel Kokotajlo 表示,由於缺乏強制監管,企業不會主動披露模型的危險能力,競爭壓力進一步加劇了風險。
OpenAI 曾承諾構建定製模型版本,測試其潛在濫用風險,例如是否能協助製造更具傳染性的生物病毒。
這種測試需投入大量資源,包括聘請外部專家、創建特定數據集並進行“微調”(fine-tuning)。 但 OpenAI 僅對較老舊的模型進行有限微調,最新模型如 o3 和 o0-mini 未全面測試。 前 OpenAI 安全研究員 Steven Adler 批評,若不兌現測試承諾,公眾有權知情。
安全測試未覆蓋最終模型
另一問題在於,安全測試通常基於早期“檢查點”(checkpoints),而非最終發佈模型。 一位前 OpenAI 技術人員表示,發佈未經測試的更新模型是“不良做法”,而 OpenAI 辯稱,其檢查點與最終模型“基本一致”,並通過自動化測試提高效率,確保安全。