DeepSeek“亂編”坑慘大學生?這個話題衝上熱搜!有救了……
更新于:2025-03-31 13:48:00

在人工智慧飛速發展的當下

對於廣大學生和科研工作者而言一個關鍵問題隨之而來

借助這些前沿大模型寫論文真的靠譜嗎?

不久前#防止DeepSeek亂編文獻的方法#衝上熱搜

記者注意到用AI工具寫論文“被坑”的經歷並非鮮見

有網友列出了自己的親身經歷除了編造論文文獻AI還會編造法律條文

甚至教人做菜還跑偏了

問AI一個問題,它給了你一個特別詳細、豐富,看上去好有邏輯的答案。但當我們去核實時,卻發現這些資訊完全是虛構的。這就是著名的“AI幻覺”現象。

“AI幻覺”指的是AI會生成看似合理但實際確實錯誤的資訊,最常見的表現就是會編造一些不存在的事實或者細節。

造成“AI幻覺”的成因很多,例如:基於統計關係的預測;訓練數據的局限性;過擬合問題,即因為記住了太多錯誤或者無關緊要的東西,從而讓AI對訓練數據中的雜訊過於敏感;有限的上下文視窗;生成流暢回答的設計等等。

那麼,當AI會說謊,大家如何避免被“帶偏”?技術浪潮中,我們如何守護自己的思辨能力?

中國人民大學新聞學院教授盧家銀指出,在知識建構上,AI生成的虛假學術成果,可能扭曲青年對科學方法論的理解,削弱其“假設-驗證”的科研邏輯訓練。在思維發展上,AI謠言通過演算法推薦的“資訊繭房”形成邏輯閉環,不利於批判性思維的培養。

北京師範大學教育學部教授、教育技術學北京市重點實驗室副主任李豔燕建議,可以把AI看作一位平等對話的智者,通過引導與AI的對話互動,促進個體思維鏈的形成,並校準認知偏差。這種去權威化的思辨訓練,可以幫助我們在與AI的對話中保持獨立判斷,實現認知躍遷。

北京郵電大學馬克思主義學院副教授宋林澤認為,AI輸出的內容只是一個認知起點,而不是終點。大學生需要主動去驗證它的內容,比如查閱權威來源、對比不同觀點,甚至直接與領域專家交流。這種驗證過程,不僅能幫助我們更全面地理解問題,還能讓我們在面對複雜資訊時更有判斷力。

如何應對AI幻覺呢?

AI工具研究者田威提到,想要獲得準確答案,提問方式很關鍵。與AI交流也需要明確和具體,避免模糊或開放性的問題,提問越具體、清晰,AI的回答越準確。

總結成提示詞技巧就是下面四種問法:

1.設定邊界:“請嚴格限定在xx年xx期刊發表的研究範圍內”;

示例:“介紹ChatGPT的發展歷程”→“請僅基於OpenAI官方2022-2023年的公開文件,介紹ChatGPT的發展歷程”

2.標註不確定:“對於模糊資訊,需要標註‘此處為推測內容’”;示例:“分析特斯拉2025年的市場份額”→“分析特斯拉2025年的市場份額,對於非官方數據或預測性內容,請標註[推測內容]”

3.步驟拆解:“第一步列舉確定的事實依據,第二步展開詳細分析”;示例:“評估人工智慧對就業的影響”→“請分兩步評估AI對就業的影響:1)先列出目前已發生的具體影響案例;2)基於這些案例進行未來趨勢分析”。

4.明確約束:明確告訴AI要基於已有事實回答,不要進行推測。

示例:“預測2025年房地產市場走勢”→“請僅基於2024年的實際房地產數據和已出臺的相關政策進行分析,不要加入任何推測性內容”。

針對如何獲得準確答案,AI自己的答案是,可以通過指令約束、工具驗證和人工審核三重保障,大幅降低AI虛構文獻的風險。值得注意的是,“人工審核”被AI自己認為是“最後防線”。

專家提醒,“AI幻覺”並非沒有好處,有時候與其把它當成缺陷,不如把它看作創意的源泉。在寫作、藝術創作或頭腦風暴時,這些“跳躍性思維”反而可能幫我們打開新世界的大門。

“AI幻覺”的本質是,AI在知識的迷霧中,有時會創造出看似真實,實則虛幻的“影子”。但就像任何工具一樣,關鍵在於如何使用。

歸根結底,在這個AI與人類共同進步的時代,重要的不是責備AI的不完美,而是學會與之更好地協作。

(中國青年報)

天津將新增一個機場
天津將新增一個機場
2025-03-26 04:17:26