32B本地部署!阿裡開源最新多模態模型:主打視覺語言,數學推理也很強
更新于:2025-03-26 00:24:59

西風 發自 凹非寺量子位 | 公眾號 QbitAI

就在DeepSeek-V3更新的同一夜,阿裡通義千問Qwen又雙叒叕一次夢幻聯動了——

發佈Qwen2.5-VL-32B-Instruct。

此前開源家族視覺語言模型Qwen2.5-VL包括3B、7B和72B三種尺寸。

這一次的32B版本進一步兼顧尺寸和性能,可在本地運行。

同時經過強化學習優化,在三個方面改進顯著:

回答更符合人類偏好;

擁有更強的數學推理能力;

在圖像解析、內容識別以及視覺邏輯推導等任務中,表現出更強的準確性和細粒度分析能力。

對比近期開源的Mistral-Small-3.1-24B 、Gemma-3-27B-IT等, Qwen2.5-VL-32B在純文本能力上也達到了同規模的SOTA表現。在多個基準上,Qwen2.5-VL-32B甚至超過了72B。

舉個栗子,比如根據一張交通指示牌照片,Qwen2.5-VL-32B就能做如下精細的圖像理解和推理:

我正在這條路上駕駛一輛大卡車,現在12點了。我能在13點之前到達110公里遠的地方嗎?

Qwen2.5-VL-32B首先對時間、距離、卡車限速進行分析,然後分步驟條理清晰推算出正確答案:

模型已經開源,儘管自己前往實測~

Qwen2.5-VL-32B更多表現示例

官方剛剛發佈的技術博客中也放出了更多展示示例。

數學推理能力上,幾何體分析也不在話下:

同樣是先有問題分析環節,然後再分四個小步驟推理正確答案:

下面這種複雜難題也能解:

能夠依次類推,歸納出構造規律:

像下面這種圖片理解就更不在話下了:

多輪深度提問也可以:

模型開源,已能實測

現在,阿裡已將Qwen2.5-VL-32B-Instruct放在了Hugging Face上。

在Qwen Chat上就能直接體驗Qwen2.5-VL-32B,感興趣的童鞋可以試試。

動作快的網友已經開始在MLX Community運行了:

在Hacker News上,網友也就DeepSeek和Qwen的舉動進行了新一輪熱烈討論。網友紛紛表示:

開源贏了,奧特曼錯了。

值得一提的是,春節期間,DeepSeek曾與阿裡通義千問Qwen多次幾乎同時發佈新模型,這一次又雙叒叕趕一塊去了。

杭州,原來真的是商量著一起發???

參考連結:[1]https://qwenlm.github.io/zh/blog/qwen2.5-vl-32b/[2]https://x.com/Alibaba_Qwen/status/1904227859616641534[3]https://news.ycombinator.com/item?id=43464068

lululemon,靠男人了?
lululemon,靠男人了?
2025-03-26 05:38:02