余承東卸任不退場
更新于:2025-04-10 19:15:10

文/陳鋒

編輯/子夜

2025年以來,DeepSeek火爆出圈的連鎖反應下,全球範圍內,大模型賽道的主流敘事已經悄然生變。

從互聯網大廠到初創AI公司,行業一邊進入新一輪技術競賽,另一邊,從to C到to B,大模型在應用側的落地進程也在驟然加速,不少業內人士都將2025年稱為AI應用爆發元年。

但像任何一項新技術背後存在的兩面性那樣,大模型技術火熱之下,即將迎來的AI應用爆發潮,也在滋生潛在的網路安全隱患。

比如,根據騰訊雲洞察,DeepSeek出圈以來,疑似仿冒DeepSeek的域名呈現爆炸式增長,春節前後,其累計觀察到疑似仿冒DeepSeek的網站超過2萬個;其還監測到,有大量仿冒網站,通過社交平臺引流C端使用者,指向虛擬幣平臺和色情網站。

與此同時,也有部分黑灰產,通過偽造提供DeepSeek本地部署和提供行業解決方案,對企業實施釣魚攻擊。

這種態勢下,如何及時洞察到AI時代下最新的網安攻防態勢、挖掘出更多的網安風險、探索出當下AI賦能網安建設的思路和路徑,變得尤為重要。

連線Insight日前參與了騰訊雲安全雲鼎實驗室主辦的一場“模型有界,安全無疆”大模型安全學術沙龍。我們注意到,這次研討會,就是一個觀察AI時代網安攻防新範式、從攻防實踐中抽離出網安建設新思路的視窗。

圖源騰訊安全官方微信公眾號

1、網安攻防新態勢:大模型引發新的潛在安全風險

去年年底,福布斯發佈的“2025年AI十大預測”中,作者Rob Toews在其中一項預測中提到:

第一起真正的AI安全事故將會發生。

“或許,某個AI模型可能試圖悄悄地在另一個伺服器上創建自己的副本以確保自身存續;或許,某個AI模型可能會得出結論,為了最好地推進自己被賦予的目標,它需要隱瞞自己能力的真實範圍,故意降低性能評估以避開更為嚴格的審查......”他如此寫道。

事實上,當前階段,大模型能力的快速進化所帶來的潛在安全風險,早已不止於大模型自身的“策略性欺騙”“偽裝對齊”。

比如針對當下火熱的AI智慧體,3月13日,美國網路安全公司Symantec通過一項測試指出,AI智慧體已突破了傳統工具功能限制,可輕鬆協助駭客發起釣魚攻擊。

此外,OpenAI早在2023年底曝出的“奶奶漏洞”(即使用者通過包裝話術,可以騙過ChatGPT輸出不該輸出的內容)、我們上文提到的仿冒DeepSeek功能變數名稱及網站、不法分子通過深偽技術進行詐騙等,都是網路安全嚴峻態勢的寫照。

這背後實則是,一方面,大模型技術的加速反覆運算,引入了大量全新、複雜的風險與威脅。

Freebuf在《2024全球AI網路安全產品洞察報告》中提到,AI大模型存在的安全風險主要分為三類,分別是訓練數據的安全風險、大模型本身的安全風險和外部攻擊風險。

具體來看,包括數據洩露及數據投毒等大模型在訓練數據中的安全風險、海綿攻擊、武器化模型等外部網路攻擊與風險等。

與此同時,大模型的兩面性也決定了,某種程度上,借助大模型,黑灰產與網路犯罪的攻擊門檻也可能會降低。

比如攻擊者通過AI大模型高效生成欺詐內容、快速挖掘潛在漏洞並提煉其中的共性缺陷提升攻擊效率、基於大模型的邏輯推理和策略規劃能力制定更複雜攻擊策略、針對已有漏洞向不同目標批量發起攻擊。

另一方面,大模型在更多應用、業務場景的落地過程中,網安風險也在加劇。

沙龍上,綠盟天元實驗室高級研究員、M01N戰隊核心成員祝榮吉就總結,未來的大模型安全風險,可以分為兩個比較大的方面:

一方面,AI與應用結合過程中,會產生新型風險,比如內容安全風險、提示詞對抗風險等;另一方面,AI與傳統應用結合過程中,也會把一些傳統的安全問題放大,比如由於AI技術的快速反覆運算,現有AI應用的開發流程、安全建設流程無法完全覆蓋相關新型業務元件的引入等。

綠盟天元實驗室高級安全研究員、M01N戰隊核心成員祝榮吉,圖源騰訊安全官方微信公眾號

雲起無垠模型安全研究負責人、知攻善防實驗室核心成員劉洋也進一步提到,隨著AI應用場景越來越多落地,新型的安全風險也在加速暴露出來。

像ChatGPT的“奶奶漏洞”、AI架設到前端小程式以及App過程中潛在的API泄露風險、AI編輯器使用過程中,原始程式碼上傳途中的代碼被“截胡”、中間人攻擊等風險、檔上傳到AI應用過程中的漏洞等。

除此之外,基於函數調用的大模型越獄攻擊等等安全風險,也在持續暴露出來。

2、新態勢下的網安建設:“以模治模”,用AI對抗AI

上述態勢下,擺在產業界的一個關鍵在於:

在卷大模型技術、卷應用之外,也要捲安全。

騰訊雲主辦的這次研討會上,一直活躍在網安攻防實戰一線的嘉賓們,也重點分享了他們在現階段,通過引入AI大模型技術和能力,強化網安建設的思考和建設經驗。

京東藍軍-白鵺攻防實驗室的安全研究員Knight認為,大模型安全需要系統性方法來解決,模型側與系統側的緊密合作至關重要。基於ExpAttack框架,其提出了構建“大模型越獄第二大腦”的創新思路,旨在通過大模型技術來解決大模型的安全難題。

京東藍軍-白鵺攻防實驗室安全研究院Knight,圖源騰訊安全官方微信公眾號

具體來看,Knight提出了“大模型越獄的CODE構建法”,通過捕獲、結構化、提煉、表達四個環節,構建起了一個能夠高效處理知識的“第二大腦”。

據瞭解,該方法利用向量資料庫、圖資料庫等技術,分層次對大模型越獄相關的論文進行分析、存儲,再通過LLOOM for jailbreak演算法,對277篇大模型攻擊方向的進行聚類,最後再通過存儲的數據提取進行基於論文方法的自動化越獄攻擊生成。

再比如,針對主流大模型在函數調用參數生成階段可能存在的漏洞隱患,西安電子科技大學博士、西安智慧系統安全重點實驗室成員吳子輝提到,該類型的漏洞根源,在於參數生成階段缺乏安全對齊機制,且系統級強制執行模式繞過模型自主決策。

基於此,其團隊提出了參數安全過濾、提示詞防禦及安全對齊訓練三層解決方案,目前相關成果已被頂級會議接收,並觸發了Reddit社區新型攻擊變種演化。

此外,祝榮吉也提到,在此前的一次攻防實戰演習中,其團隊在防禦系統中融入了三種比較核心的防護機制手段,從應用提示詞內容強化、結構強化、流程強化這三個方面,提升了防護效果。

從上述嘉賓們的分享來看,不難發現,面向AI時代的網安建設,如何用AI來對抗AI,正成為一項關鍵命題。

連線Insight也注意到,目前從產業界來看,“以模治模”也正加速成為新共識。

其中,作為最具代表性的安全廠商之一,騰訊雲也在加速佈局。

比如,DeepSeek等AI大模型帶來應用熱潮以及大模型開源潮後,很多企業為了獲得更好的回應速度、更高的數據安全性,以及在特定任務上更好的表現等考慮,私有化部署成了很多企業應用大模型的首選方式。

然而,大模型當地語系化部署過程中,AI工具更容易暴露在公網環境中,引入了潛在的安全隱患。

為了幫助企業及時洞察、應對這些風險,騰訊雲安全中心可以依託全面資產掃描、即時漏洞檢測、雲資源風險檢查、體檢報告生成這四項體檢能力,幫助企業及時發現AI風險,保護自身數據和算力資源,進而保障業務的穩定運行。

暴露面掃描配置示意圖,圖源騰訊安全官方微信公眾號

目前,騰訊雲安全中心支援一鍵同步雲上資產,支援添加雲外資產,事實/定期對資產進行全埠掃描、服務識別、指紋測繪、漏洞掃描、暴露路徑管理(CLB、安全組等配置識別)。

再從整體來看,基於過往多年在自身業務安全建設上的攻防實踐經驗,騰訊雲如今自上而下都構建起了縱深防禦體系,沉澱出了一套具備可複製性的、雲原生的高安全等級架構,通過伺服器硬體安全優化、可信計算技術與供應鏈安全保證雲基礎設施安全等多重機制,來保障雲基礎設施一體化安全。

另一方面,在產品維度,騰訊雲安全則是整合構建了“4+N”體系,為所有私有雲、公有雲、混合雲等不同形態客戶提供全面的產品供給。

長遠來看,AI時代的網路安全建設仍然處於探索初期,但在用“AI對抗AI”的新共識下,像騰訊雲這樣的硬核玩家,正腳踏實地死磕技術,説明更多客戶、中小企業築牢安全防線。

春季踏青神車來了!
春季踏青神車來了!
2025-03-28 11:58:01