4月2日,智元機器人宣佈與國際頂尖具身智慧公司Physical Intelligence(Pi)達成合作夥伴關係,雙方將圍繞動態環境下的長週期複雜任務,在具身智慧領域展開深度技術合作。此外,近期正式加入智元的羅劍嵐,將全面領導智元具身智慧研究中心,同時推進雙方的深度合作。4月2日,羅劍嵐接受了《每日經濟新聞》記者的採訪。
目前,人形機器人仍然依賴人在背後遙控,未來人形機器人能否實現自主決策?
對此,羅劍嵐表示:“遙控與自主決策的差別其實很大。遙控類似於你與一個電腦程序對話,但背後與你聊天的是一個真正的人,他在另一台電腦上打字。而自主決策,最核心的是感知、預測、行為生成這一整套機制的泛化能力。機器人要理解世界,需要建立一個Internal Model(世界模型)去預測未來,再去實施可執行的動作鏈。接著,再看機器人與真實世界的交互,去預測下一步動作。”
羅劍嵐認為:“如果機器人真的實現Manipulation(操控),是比LLM(大語言模型)更高級的智慧。如果以從0到10分級,大語言模型最多算3,如果機器人實現Manipulation,至少有7至8。”
那麼,在實現機器人Manipulation的道路上,最關鍵的技術是什麼呢?
羅劍嵐認為:“強化學習是我們比較看重的一個技術,此外我們也看到DeepSeek R1所展現出的比較強的推理能力。但光有模仿學習是不夠的,後來我們還會有世界模型。根據我們雲端的Model(模型),去預測下一步環境會發生什麼。不過這些都是工具,真正本質上需要解決的,是怎樣在開放數據鏈構建(具有)魯棒的策略,然後感知、預測、行為生成這一整套機制的泛化能力,才是最核心、最關鍵的。”
值得一提的是,汽車智能駕駛是收集到眾多車輛的數據后,才慢慢發展起來的。當下人形機器人尚未大規模應用於生活場景。如果缺乏足夠的數據,人形機器人的“操控”該如何突破?
羅劍嵐表示:“我也經常在想,這是一個迴圈。我們沒有機器人部署到真實世界,它就不會產生數據;機器人的能力沒到一定程度,也無法部署到真實世界中去。但是,必須要有人做這些事,假設有1000台機器人在星巴克工作,每天24個小時打咖啡,其一個月傳回來的數據,超過我們現在所有見過的機器人數據集。或許這時會發現,在小的數據量中得出的很多結論不一定正確。”
不過羅劍嵐也強調,機器人部署到真實世界的難度,小於汽車(智能駕駛),“車在安全性等各方面要求太嚴格。而機器人,可以從一些封閉空間、半封閉空間部署,讓它產生數據”。
每日經濟新聞