如何防範化解AI換臉技術引發的法律風險
更新于:2025-04-13 13:20:56

   【資政場】

   4月10日,中國國家話劇院發佈聲明,有公司未經授權違法冒演話劇《青蛇》,濫用AI換臉技術欺騙觀眾,其表示將持續取證,用法律武器捍衛合法權益。

   近年來,隨著人工智慧演算法的快速進步,AI換臉技術在影視娛樂、社交互動等領域得到廣泛應用。從影視作品中逼真的角色替換到社交平臺上趣味化的表情包生成,技術革新為文化創意產業注入了強勁動力。然而,技術的“雙刃劍”效應也同步顯現,不法分子通過篡改視頻中的面部特徵與聲紋數據,實施捏造名人言論、炮製誤導性資訊、精準詐騙與敲詐勒索等違法犯罪活動。從消解社會信任到衝擊司法證據體系,技術濫用已由個體權益侵害演變為系統性社會問題。在此背景下,亟須從壓實平台責任、健全法律規則、推動社會共治三方面協同發力,構建兼顧技術創新與風險防範的治理體系。

  壓實平台監管責任,構建風險防控的前置屏障

   網路平台作為AI換臉技術傳播的核心場域,其監管能力直接影響風險防控成效。當前,部分平臺對合成內容的審核仍停留在被動回應層面。解決此問題需要推動平臺完成從“技術工具提供者”向“風險防控責任人”的角色轉變。平台不僅要提供技術支援,還應在服務中承擔起更多的社會責任。為了有效防範和化解AI換臉技術帶來的法律風險,平臺需要從多個維度加強監管,確保技術創新與風險防控並行推進。

   2023年1月10日起施行的《互聯網資訊服務深度合成管理規定》對平台監管責任提出了明確要求,特別是對資訊安全和合成內容的管理作出規定。規定明確要求平臺提供者在提供服務時,應落實資訊安全主體責任,通過嚴格的使用者身份認證機制,確保服務消費者的身份信息真實可查。平臺可以通過行動電話號碼、身份證件號碼等多種方式進行實名認證,避免匿名或偽造身份的用戶發佈虛假或有害內容。這一措施從源頭上限制了AI換臉技術被濫用的可能性,為進一步的監管打下了堅實基礎。

   除了使用者身份認證外,平臺還需加強對合成內容的審核,結合人工與技術手段進行多層次的管理。AI換臉技術的應用產生了大量動態的內容,這些內容涵蓋了娛樂、社交等領域,可能被惡意利用,製造虛假資訊甚至操控社會輿論。因此,平臺需要建立健全的審核機制,不僅對合成結果進行技術檢測,還應當定期對合成演算法進行評估和審查,防止技術本身被濫用。同時,平臺應確保對違法和不良資訊的及時處置,按照規定保存相關記錄,並向網信部門及時報告,從內容生成源頭到傳播過程進行全方位監管,進而降低虛假信息的傳播風險,保障網路安全。

  完善法律規則體系,破解制度滯後的治理難題

   傳統法律體系難以應對數位空間中行為隱蔽化、主體虛擬化、後果擴散化的新型挑戰。這一矛盾要求我們必須更新法律規則,以適應快速變化的技術環境。

   《互聯網資訊服務深度合成管理規定》雖然強調了資訊安全管理、使用者身份認證、內容審核和違法信息的處理要求。但深度合成技術的創新速度與監管滯後之間存在矛盾,該規定依然需要進一步細化和完善。

   首先,法律應進一步明確平臺在內容生成、傳播等環節的責任,不僅要依賴事後的監管和懲處,還應加強事前的預防性規範,確保技術應用的合法性與合規性。平臺在生成或編輯涉及公眾人物、國家安全等敏感資訊時,應該加強對技術工具的審查,並對相關內容進行即時監控和審核,避免虛假信息的傳播和惡意濫用。

   其次,法律規則應當關注AI換臉技術的跨境影響和全球化治理問題,加強國內外法律協調,確保我國在全球範圍內的資訊安全。深度合成技術的相關法律除了明確對違法行為的處罰,還應設立更為細緻的規定,區分不同類型的違法行為,採取分類分級的治理策略,針對不同行為的風險進行有效的法律制衡。

  構建社會共治格局,凝聚技術風險的防範合力

   AI換臉技術的風險本質上是技術系統與社會系統複雜交互的產物,單一主體治理模式已難以應對技術風險的彌散性和跨域性特徵。需突破傳統治理的路徑依賴,整合政府、行業、公眾三方力量,構建共建共治共用的治理生態。

   在政府層面,應強化統籌協調功能。建立跨部門協同治理機制,整合網信、電信、公安等部門資源,形成從技術研發、內容傳播到違法處置的全鏈條監管合力。同時,需加強國際協作,針對跨境傳播的合成內容,建立跨國聯合取證、信息共用等合作機制,應對技術風險的全球化擴散。在行業層面,需激活企業自治潛能,推動成立人工智慧倫理委員會,由頭部企業、技術專家、法律學者共同制定行業技術標準,明確換臉演演算法的倫理紅線。建立“黑名單”共享機制,對多次違規的企業實施聯合懲戒,形成一處失信、處處受限的約束效應。此外,可鼓勵企業用技術能力反哺社會治理,例如開放偽造內容識別介面,助力監管部門提升風險識別效率。在公眾層面,需提升社會數位素養,通過社區宣傳、學校教育等管道普及AI換臉技術的基本原理和風險特徵,增強公眾對合成內容的辨別能力。

   能否有效防範和化解AI換臉技術帶來的法律風險,是對數字時代治理能力的系統性考驗。為此,治理者需要超越傳統的“監管—對抗”思維,轉向“共生—演化”的新型治理範式。通過平臺監管實現技術風險的前端控制,通過法律重構建立制度適應的彈性空間,通過協同治理激活社會共治的生態潛能。

   (作者:張群,系首都師範大學政法學院副教授)