國家互聯網信息辦公室等4部門近日聯合發佈《人工智慧生成合成內容標識辦法》,自2025年9月1日起施行。這意味著,屆時所有AI作品必須亮明身份,標註是AI生成。該《辦法》聚焦人工智慧“生成合成內容標識”關鍵點,為破解“AI造假”困局提供了依據。
近年來,人工智慧大模型快速發展,為人們提供了便利工具,但在促進經濟社會發展的同時,也帶來了技術濫用的問題。AI技術降低虛假視頻製作成本,被用來偽造明星代言、偽造科學家帶貨,讓批量生產、快速傳播、收割變現、註銷換殼的欺詐行銷快速形成閉環。為了吸引流量、快速起號,“深度合成工廠”利用AI技術批量生產虛假資訊,獵奇、極端、煽動情緒的假新聞充斥互聯網,令公眾真假難辨。
當AI作品深入千家萬戶時,AI生成內容的以假亂真就會帶來社會信任危機。《辦法》的出台正當其時,本質上是一場重建人機信任的“革命”。當AI學會為自己的作品署名,人類才能安心與之共舞。
《辦法》從三重維度築牢治理防線,重點解決“哪些是生成的”“誰生成的”“從哪裡生成的”等關鍵問題,實現全流程安全治理。
在技術層面,明確研發者的“身份編碼”義務。
《辦法》明確服務提供者應當對文本、音訊、圖片、視頻、虛擬場景等生成合成內容添加顯式標識,應當在生成合成內容的檔元數據中添加隱式標識。這相當於為每件AI作品頒發“數字身份證”,既便於監管部門溯源追責,也倒逼企業將倫理設計嵌入技術底層,實現生成式AI的全生命周期標識管理。
在平台層面,壓實內容分發者的“身份查驗”責任。
《辦法》對內容分發平台的責任也作出詳細規定。按要求,內容分發平臺要核驗檔元數據中是否含有隱式標識,必須採取措施對AI生成內容進行標識。此前,我國已有多個社交平台試點“AI內容防火牆”,提高虛假信息攔截率。未來,隨著《辦法》的實施,“源頭標註+平台攔截”的雙重機制,將重塑網路空間的信任生態。
在公眾層面,激活社會監督的“身份認知”意識。
人工智慧工具普及化,讓每個使用者都可能成為虛假內容的製作者和受害者。依據《辦法》規定,用戶發佈AI生成合成內容時應該主動標識,任何組織和個人不得惡意刪除、篡改、偽造、隱匿這些內容標識。可以想見,對公眾而言,未來刷視頻時先找“AI身份證”,會像過去買商品時看生產日期一樣自然。而當人人都是“鑒定師”時,AI作品自然無處匿名。
當然,打造可信賴的人工智慧技術並非一日之功。比如,《辦法》中提到的隱式標識,在技術上能否被規避和移除?這還需要更多企業加強對人工智慧安全的投入與研究,以合理成本提高系統安全性。
AI產業正在蓬勃生長。統計報告顯示,我國人工智慧企業數量超4500家,核心產業規模已接近6000億元。截至2024年12月,我國有2.49億人表示自己使用過生成式人工智慧產品,佔整體人口的17.7%。
AI技術進步和AI安全治理是“一體兩面”,科技之光投射在合乎倫理的鏡面上,才能照亮更長遠的未來。讓AI生成內容亮明身份,是科技向善的強制約束,是享利避害的制度設計。標識制度的施行,將為AI技術鋪設可持續發展的軌道,讓人工智慧更好地服務於人類社會。
轉自:經濟日報(作者佘惠敏),原標題《亮明“身份”邁出AI治理重要一步》
來源:經濟日報