Google旗下DeepMind實驗室發佈長達145頁人工智慧安全報告,預測通用人工智慧(AGI)2030年可達人類智慧水準,並警告潛在風險可能對人類構成“永久毀滅”威脅。
此議題非單一公司能獨力解決,需全社會集思廣益,並提出風險防控建議。研究人員將AGI風險歸納為四大類,濫用、錯位、失誤及結構性風險,特別重視預防措施與儘早識別危險能力。
AGI風險分類與防控策略報告將AGI潛在風險分為四類:濫用風險指人類蓄意利用AI做出危害行為;錯位風險涉及系統產生非預期的惡性行為;失誤風險源於設計或訓練瑕疵引發的意外故障;結構性風險則因不同主體間利益衝突而起。DeepMind推出一套以預防濫用為核心的緩解策略,強調提前識別危險能力的重要性,並建議創建國際合作框架監管AGI發展。DeepMind首席執行官Demis Hassabis之前也曾表示,AGI可能十年內問世,呼籲設立類似聯合國的機構加以監督。
業界競爭與專家質疑DeepMind間接批評競爭對手Anthropic和OpenAI的安全策略,Anthropic訓練及監督欠佳,OpenAI過度專注AI對齊。Fortune報導,部分專家異議,認為AGI定義尚未清晰,2030年時程表難以科學驗證。Future of Life Institute聯合創辦人Anthony Aguirre指出,超智慧AI或引發前所未有社會動蕩,人類掌控力仍不足,不少意見認為,科技進步應在創新與安全間尋求平衡,以免失控釀禍。
未來發展預測這份報告既揭示AGI的潛力與隱憂,也喚起業界對安全標準的深思。Google投資超過1,000億美元研發AI,數年內或有更多政策與技術突破。預料國際間將深化合作,制定監管框架,確保AGI發展造福人類而非威脅。
(首圖來源:AI)