來源:經濟日報
今年的《政府工作報告》對推進“人工智慧+”行動提出了新的要求。《政府工作報告》著重強調了人工智慧的實際應用,包括產業賦能、終端應用等方面。在強調技術應用的同時,多次出現“安全”一詞,強調了產業的安全健康發展。
在金融領域,龐大的用戶群體和海量數據積累還為人工智慧技術的落地提供了優質場景。隨著“人工智慧+”行動的持續推進,AI大模型已經成為不少金融機構的標配。與此同時,問題也隨之而來,“一本正經說胡話”的AI幻覺已經讓不少金融從業者感到頭疼,更令人擔憂的是,金融業的高精確性要求使得AI幻覺問題被放大,從模型誤判到資金損失可能僅是一步之遙。
AI幻覺是指AI大模型生成的內容與現實世界事實或使用者輸入不一致的現象。簡而言之,就是AI在“胡說八道”。
記者瞭解到,眼下金融行業確實有不少投訴案例與AI幻覺有關。以市面上常見的AI智慧客服為例,AI智慧客服的“已讀亂回”經常令使用者陷入溝通困局。有客戶連續發送“轉人工”請求,對面仍回復“為了節約您的時間,還請再簡單描述問題”;當使用者諮詢複雜的理財產品條款時,AI回答往往仍以“請諮詢客戶經理”倉促收場。不少使用者不禁疑惑:這些外表智慧實則機械的AI客服,與傳統電話客服“按0轉人工”的機械設置相比,究竟在服務體驗上有多大程度的實質性提升?
中國郵政儲蓄銀行研究員婁飛鵬表示,AI幻覺會生成看似不合理、與事實不符的結果,如果出現在營銷領域,可能導致銀行無法向客戶做好解釋,從而增加銀行維護客戶群體的難度;如果出現在風險管理領域,可能使銀行因為無法理解其中的邏輯原因,無法有效採取針對性的風險管理措施。
記者採訪發現,AI幻覺的出現與行業之間的信息壁壘存在一定關聯。“銀行、保險、證券等不同行業間的數據難以有效整合,碎片化的數據生態制約了AI模型的訓練精度。”招聯首席研究員、上海金融與發展實驗室副主任董希淼認為,AI模型的訓練需要大量數據支援,如何在保證隱私和安全的前提下進行模型訓練,是行業需要共同解決的問題。在部分對精度要求極高的金融應用場景中,AI幻覺可能對新技術的落地應用造成障礙。現行金融監管體系主要針對傳統業務模式設計,面對AI技術驅動的新興業態需要新的有效規制手段。“需要注意的是,AI生成的知識在準確性、科學性方面仍存在很大不足,現階段只能作為輔助工具而不能作為決策工具。”董希淼說。
目前來看,完全消除AI幻覺並不現實。AI幻覺是一把“雙刃劍”,儘管可能給金融這樣對精確性要求較高的行業帶來風險,但在文學藝術等創作領域,許多人視其為靈感的催化劑,甚至主動加以利用激發創新。“對金融機構而言,需要對AI大模型有一定的容錯度。”婁飛鵬認為,對不同類型的經營管理決策需要在AI生成結果和人工經驗判斷上設置不同的權重比例。在AI輸出結果的基礎上,輔以人工判斷更好地開展決策。同時通過適時增加數據指標、調整優化大模型等方法盡量減少AI幻覺的發生。(經濟日報記者 蘇瑞淇)
【來源:中國經濟網】