西風 發自 凹非寺量子位 | 公眾號 QbitAI
就在DeepSeek-V3更新的同一夜,阿裡通義千問Qwen又雙叒叕一次夢幻聯動了——
發佈Qwen2.5-VL-32B-Instruct。
此前開源家族視覺語言模型Qwen2.5-VL包括3B、7B和72B三種尺寸。
這一次的32B版本進一步兼顧尺寸和性能,可在本地運行。
同時經過強化學習優化,在三個方面改進顯著:
回答更符合人類偏好;
擁有更強的數學推理能力;
在圖像解析、內容識別以及視覺邏輯推導等任務中,表現出更強的準確性和細粒度分析能力。
對比近期開源的Mistral-Small-3.1-24B 、Gemma-3-27B-IT等, Qwen2.5-VL-32B在純文本能力上也達到了同規模的SOTA表現。在多個基準上,Qwen2.5-VL-32B甚至超過了72B。
舉個栗子,比如根據一張交通指示牌照片,Qwen2.5-VL-32B就能做如下精細的圖像理解和推理:
我正在這條路上駕駛一輛大卡車,現在12點了。我能在13點之前到達110公里遠的地方嗎?Qwen2.5-VL-32B首先對時間、距離、卡車限速進行分析,然後分步驟條理清晰推算出正確答案:
模型已經開源,儘管自己前往實測~
Qwen2.5-VL-32B更多表現示例
官方剛剛發佈的技術博客中也放出了更多展示示例。
數學推理能力上,幾何體分析也不在話下:
同樣是先有問題分析環節,然後再分四個小步驟推理正確答案:
下面這種複雜難題也能解:
能夠依次類推,歸納出構造規律:
像下面這種圖片理解就更不在話下了:
多輪深度提問也可以:
模型開源,已能實測
現在,阿裡已將Qwen2.5-VL-32B-Instruct放在了Hugging Face上。
在Qwen Chat上就能直接體驗Qwen2.5-VL-32B,感興趣的童鞋可以試試。
動作快的網友已經開始在MLX Community運行了:
在Hacker News上,網友也就DeepSeek和Qwen的舉動進行了新一輪熱烈討論。網友紛紛表示:
開源贏了,奧特曼錯了。值得一提的是,春節期間,DeepSeek曾與阿裡通義千問Qwen多次幾乎同時發佈新模型,這一次又雙叒叕趕一塊去了。
杭州,原來真的是商量著一起發???
參考連結:[1]https://qwenlm.github.io/zh/blog/qwen2.5-vl-32b/[2]https://x.com/Alibaba_Qwen/status/1904227859616641534[3]https://news.ycombinator.com/item?id=43464068