經濟觀察報 記者 陳月芹 近日,金沙江創投管理合夥人朱嘯虎給人形機器人熱潮潑了一盆冷水,他表示“最近幾個月正在批量退出人形機器人公司”。
朱嘯虎站在資本的角度,幾連反問:現在是個人形機器人就會翻跟頭,但商業化在哪裡?可能的客戶在哪裡?高校買回去做研究、央企買回去做前臺展示,都不是理想中的商業化路徑。
這一通表態引起創投圈和科技圈震動。經緯創投創始合夥人張穎率先在朋友圈開懟:“朱老闆別鬧。機器人領域前景一片光明,百花齊放,有點泡沫再正常不過。你這言論,以後機器人賽道的優質公司誰還願意搭理你?”
眾擎機器人的創始人、董事長趙同陽則更直接,“(朱嘯虎)甚至問出了人形機器人在這個階段有什麼用,就像質問一個剛出生的嬰兒,用眼前看到的來否定未來……這哥們根本不配不配持有宇樹一毛錢股份……對於這種資本,拿一毛錢都覺得是對這個行業的玷污。”
公開資料顯示,金沙江創投直接或間接參投了宇樹科技、松延動力、星海圖、非夕機器人、瑆爝機器人等。
3月29日下午,星海圖迅速發佈澄清公告稱,金沙江創投於2023年11月參與了星海圖天使輪融資,於2024年5月提出股權投資退出的訴求,並在2024年9月順利完成股權投資退出。“本公司從未與朱嘯虎先生進行過任何交流,亦無其聯繫方式”。
而另一家被投企業松延動力當晚在視頻號發佈自家人形機器人跑步的視頻,視頻字幕寫著“無懼雜音繼續前進”,配文還帶上了“金沙江創投”“朱嘯虎”等標籤。松延動力創始人姜哲源在朋友圈轉發該視頻時評論稱:“兩岸猿聲啼不住,輕舟已過萬重山”。
天眼查顯示,金沙江創投在2024年3月參與對松延動力的天使輪投資,於2025年1月退出。金沙江創投參投星海圖、松延動力持續時間均不足1年。
在3月29日至30日中關村論壇現場,多位具身行業人士被出席者詢問“如何看待朱嘯虎質疑人形機器人商業化困難、批量退出具身智能專案”
成立於2016年的樂聚機器人主要做雙足人形機器人的產業化,其創始人冷曉琨在中關村論壇上表示,目前最重要的是找到場景先用起來。樂聚在2025年元旦完成了100台機器人的產業化交付,投入到科研展廳、車廠工廠等應用場景中。
冷曉琨認為,行業亟待解決的兩個問題是基本硬體穩定性和技術魯棒性。眼下人形機器人進工廠連行業標準都沒有,例如,機器人應該無故障工作多少小時?樂聚內部給機器人定的目標是連續工作1500個小時,即100天左右、一天工作十幾個小時,“至少要達到這個目標才敢說機器人能夠用起來,先不討論ROI的問題”。他表示,人形機器人在使用和磨合過程中會顯露出硬體、智慧性等一系列問題,要解決這些問題,就是在提高未來工廠以及家庭使用場景中機器人的魯棒性。
對於朱嘯虎引發的業內“罵戰”,一位人形機器人公司創始人對經濟觀察報表示,“10年前,新能源行業也被罵。具身智慧賽道必須找耐心資本,我們的一個投資人從公司初創就跟到現在,10年了也沒有退出。”
談到今年以來機器人能跑步、能跳舞、能翻跟頭,通過花式整活兒火起來了,這位人形機器人公司創始人總要反問一句“然後呢”。比起參與一場秀,他更看重的是讓機器人用起來,“不能太過拔高公眾的期待,泡沫炸掉對整個行業都不是好事。”
機器人必須有用,但目前首先應該在哪些場景裡用,如娛樂表演、教育科研、工業製造、農業等,業內不同公司做出了自己的選擇。
比起很多公司相繼發佈酷炫的機器人演示視頻,銀河通用已經找到了自己的產業應用場景並落地,其第一代產品Galbot G1是目前極少數敢中關村現場做展示的人形機器人,能夠自主前往貨架定點抓取商品,並且送達指定位置。
一位銀河通用人士向經濟觀察報表示,銀河通用目前主要瞄準了機器人在零售和工業領域的應用,目前已經在線下零售門店開展測試,機器人可以實現在24小時無人藥店裡識別和抓取藥物、在新能源汽車工廠里搬運重物,且對不同形態的箱子有自己的處理辦法。
北京銀河通用機器人創始人王鶴認為,在抓取貨物的場景里,機器人甚至不需要用到雙腿,用輪式、可摺疊的“腿”就足夠了,兼具穩定、成本很低、噪音小、續航時間長等優點。未來如果需要機器人在一些複雜地形行走,那輪式機器人就不夠用了,才需要機器人有雙腿穿越障礙的能力。
此外,目前具身智能行業最大的分歧之一在於訓練數據上,這背後是不同成本、訓練方式以及目標的差異。
行業主要分成兩大派:一個是以特斯拉、波士頓動力等為代表的真實數據驅動派,主張依賴真實環境中的物理交互數據,通過感測器收集運動、觸覺、視覺等多模態資訊;另一個是以銀河通用為代表的數據泛化派,主張利用合成數據加上遷移學習(跨任務知識複用),減少真實數據依賴,引導機器人自主思考。
“人形機器人已經步入運動時代,雖然現在沒用視覺輸入就培育出了運動健將,但運動健將絕不是人形機器人的終點。”王鶴表示。
而人形機器人要跨進生產力時代,一項核心技術就是基於視覺輸入的端到端具身大模型實現任務的通用和能力泛化。這是王鶴和銀河通用團隊正在攻關的難題:通過大規模生產和使用合成數據,並用視覺引領肢體控制,實現機器人自主泛化操作的能力,“讓機器人通過多模態理解這個世界,而不僅僅是有人用語言告訴他‘這是什麼東西’,或者用視覺告訴他一個東西長什麼樣。”