今年以來,隨著生成式人工智慧的發展,“AI幻覺”進入大眾視野,受到關注和討論。“AI幻覺”指大語言模型編造其認為是真實存在的甚至看起來合理或可信的資訊。
3月21日,在2025國際基礎科學大會(ICBS 2025)新聞發佈會上,圖靈獎得主、中國科學院院士、清華交叉資訊研究院院長姚期智,在談及未來AI發展的重點及挑戰時表示,我們需要更多地關注AI安全方面的問題,並做好相關研究。AI幻想或者說幻覺以及它生成式的答案等,對使用AI來進行關鍵應用會帶來一些風險。如果在一些重點的應用程式當中不能保證其安全性,就會存在一些漏洞。瞭解AI為什麼會出現這種不安全的現象很重要,因為從應用層面來說,只有安全的AI技術才能贏得市場。
姚期智強調,我們仍然需要很多的理論研究來加深對AI的了解,從而更好地控制它,以實現更好的AI演算法。“我們看到,目前AI前沿研究更像是實驗科學——我們取得了很多成就,有很多的數據,但我們不太瞭解到底是為什麼。所以我覺得這方面還需要進一步擴展,我們需要更好、更加深入地來瞭解AI的原理和基準。”姚期智說。
姚期智認為,未來,不僅要防止一些濫用AI的問題,還要考慮商業安全性這類的問題。從科學的角度來說,必須要瞭解AI的安全邊界,需要在AI領域做出更多理論探索。
自從Open AI到DeepSeek,生成式人工智慧的主力軍大多數是90後、95後甚至00後,為什麼會有這樣一個現象?這種現象背後的技術代際躍遷邏輯是什麼?
關於這些問題,姚期智在會上表示,現在有這麼多年輕學者在人工智慧領域做出重大貢獻,主要與人工智慧的發展路線有關。
姚期智說,人工智慧科學已經存在了很多年,有七八十年的歷史;而最近大模型的出現,改變了人工智慧學科的整個形式。
“大模型的出現,相當於我們在以前試過的很多條路線裡面,發現了一條帶給我們想不到的驚人能力的路徑,它甚至解決了圖靈測試這個原始的最重要的問題。這條路線從技術上來講,不像數學、物理那樣需要那麼多複雜的數學、物理基礎。這使得做人工智慧領域的前沿研究,相對容易著手、容易接近。”姚期智表示,“所以很多年輕人在學了大學本科課程以後,就已經看到了人工智慧的前沿。這就是為什麼DeepSeek背後100多個了不起的年輕人能夠做出這些工作成果。這是一件非常令人興奮的事,它使中國在人工智慧學科發展中獲得了有利地位。”