石 暢
不久前,某機場出現一張由人工智慧(以下簡稱“AI”)生成的廣告畫面,因人物主體有六根手指引發熱議。這一失誤看似荒誕,卻也揭示出“AI幻覺”的問題。
當演算法能夠驅動內容生產,AI迅速回應使用者指令,生成各類文本、圖像和音視頻內容,“一鍵生成”帶來的快感,讓越來越多的人陷入“技術依賴”,同時也產生了資訊混淆和傳播誤導的風險。
近日,國家互聯網信息辦公室等四部門聯合發佈《人工智慧生成合成內容標識辦法》(以下簡稱《標識辦法》)。《標識辦法》聚焦人工智慧“生成合成內容標識”關鍵點,通過標識提醒用戶辨別虛假資訊,明確相關服務主體的標識責任義務,規範內容製作、傳播各環節標識行為。
《標識辦法》要求,由人工智慧生成的文本、圖片、音訊以及視頻等內容,均需添加顯式或隱式的標識。顯式標識,如文字、語音提示,能夠直觀地告知用戶內容的生成來源;隱式標識,如元數據、數位浮水印,則能在不影響用戶體驗的前提下,暗中標記內容的生成資訊。這一舉措有效破解了內容溯源的問題,還有助於重建網路空間的信任秩序。
技術的發展同風險挑戰,從來都是相伴而生。從實驗室里助力前沿探索到醫療影像輔助診斷,從城市交通智慧調度到農業精準種植指導……AI為人們帶來了更便捷智能的體驗,但也出現了一系列因濫用AI而生的問題:深度偽造技術製造的虛假影像難辨真偽,AI換臉技術催生的身份盜用防不勝防,惡意生成內容更成為網路空間的新型污染源。
既要用好,也要管好。近年來,我國已相繼出臺《互聯網資訊服務深度合成管理規定》《生成式人工智慧服務管理暫行辦法》等政策檔,既為技術創新開闢航道,又為公共利益築牢堤壩。通過不斷對新出現的問題實施針對性治理措施,並與演算法備案、安全評估等制度相銜接,科技向善的願景得以更好地維護和發展。
公眾如何使用AI也顯得尤為重要。人工智慧最終是要為人服務的,需要人來做出選擇和判定。我們需要形成批判性使用AI內容的共識,提高人們對AI生成內容的辨識能力和防範意識。只有這樣,我們才能讓AI為工作和生活賦能,避免被AI“挖坑”。
當前,AI以“周更”速度反覆運算且更為深入地介入現實生活,生成內容日均億萬量級地井噴,可以預見,相伴而生的AI治理問題還將持續出現。在創新的同時築牢安全底線,實現動態平衡中的持續優化,將是AI時代長期面臨的課題。只有將技術的“快”與人類的“慎”結合起來,才能更好地讓技術為人類所用,服務社會發展。