瞭望 | 莫讓“數位人”侵害真人權益
更新于:2025-04-07 22:09:12

  文 | 錢沛杉

  從直播間24小時帶貨的“數位人主播”到電商平臺批量生成的“AI名人推薦”,從影視作品中“復活”已故明星到社交平臺泛濫的換臉惡搞視頻,“AI數位人”濫用已從娛樂領域蔓延至商業、社會活動。當技術應用突破虛擬與真實的倫理邊界,如何系緊治理韁繩,已成為當下的必答題。

  一邊是“AI數位人”技術操作的低門檻與低成本,一邊是相關方權責模糊讓“真人”受害者陷入維權困境,數位人侵權事件頻發,暴露出治理方式的滯後性。

  從法律層面看,現行著作權法對AI創作內容的定性相對模糊、民法典對“深度偽造”侵權的規制尚未形成完善的閉環、《生成式人工智慧服務管理暫行辦法》主要停留在原則性框架層面……面對深度偽造技術的快速反覆運算,法律法規在技術認定、侵權主體追溯、跨國追責等環節仍需持續升級完善。由於開發者、平臺、使用者的全鏈條責任體系尚未建立,中小平臺因成本壓力對偽造內容“選擇性失明”。受害者時常面臨侵權主體隱蔽、跨國追責困難等維權困境。

  破解治理難題,應避免陷入“以技術對抗技術”的單一邏輯,建立技術、法律、倫理協同的治理機制。通過數位身份認證、內容溯源等方式,推動“AI數位人”濫用等問題治理從事后追責轉向事前防範;推動形成覆蓋演算法開發者、內容分發者、終端使用者的全鏈條責任共同體,壓實各方主體責任。

  技術進步不應以犧牲人的主體性為代價,充分發揮與技術發展相匹配的治理智慧,才能確保人工智慧技術始終行駛在服務人類文明的軌道上。