科大訊飛亮相2025亞洲AI智慧眼鏡大會,共築“視”聽交互新未來
更新于:2025-03-26 01:11:34

3 月 21 日,2025 亞洲 AI 智慧眼鏡大會在深圳灣科技生態園成功舉辦。此次盛會深入探討了 AI 智慧眼鏡領域的前沿產品、創新技術及應用場景,力求實現行業核心資訊的高效互通,以加速行業夥伴間的深度協作。

科大訊飛作為國內人工智慧領域的“國家隊”,在本次展會上驚豔亮相,展示了其最新的 AI 智慧眼鏡解決方案。大會上,科大訊飛 AI 交互研發總監王磊磊發表了題為《AI 驅動交互革新,共築‘視’聽新未來》的主題演講,詳細介紹了公司在智慧眼鏡相關技術上的進展。

科大訊飛 AI 交互研發總監王磊磊先生發表演講

展會現場,科大訊飛的 AI 智慧眼鏡方案演示產品憑藉多麥克風陣列降噪、多模態交互等核心技術,吸引了眾多參會者駐足諮詢與體驗,親身感受其帶來的前沿科技魅力。

2025 亞洲 AI 智慧眼鏡大會科大訊飛展位現場

科大訊飛 AI 智慧眼鏡方案通過整合多麥陣列降噪技術、極速語音交互系統、多模態交互方案及智慧體中心架構,為傳統眼鏡的智能化升級提供了全面技術支援。多麥降噪確保通話清晰;極速交互實現毫秒級回應,讓指令“瞬間”執行;多模交互支援手勢、眼動等自然操作,打破傳統交互邊界;智慧體中心則提供場景化功能並支援大模型接入,拓展應用無限可能。

其中,多麥陣列降噪方案依託領先的聲學技術與降噪演算法,能夠精準分離人聲與環境噪音,有效解決嘈雜環境下通話品質差、語音辨識不準等痛點。無論是在高速移動、複雜噪音的場景,還是日常通勤、戶外旅行,都能提供清晰穩定的通話、交互與翻譯體驗。

同時,在面對面翻譯場景,該方案還支援佩戴者聲音分離,精準鎖定說話人聲音,顯著提升翻譯準確度,確保跨語言溝通流暢無礙。

為進一步提升交互體驗,方案通過整合極速語音交互與多模交互技術,為 AI 眼鏡賦能全鏈路語音交互能力。極速語音交互優化識別模型,確保複雜環境下快速準確回應;多模交互融合視頻理解等技術,支援使用者通過注視對象實現針對性對話,打破傳統交互限制。這些創新技術讓 AI 眼鏡真正成為使用者的“第二大腦”,開啟人機交互的全新範式。

搭載雲端 AIUI 大模型的極速超擬人交互系統

不僅如此,科大訊飛交互中樞整合海量信源,支援天氣查詢、新聞推送、日程管理等豐富功能,並通過開放 API 介面和模組化設計,降低開發門檻。客戶無需開發能力即可快速接入,打造個人化智慧眼鏡解決方案,拓展更多場景化應用。

此外,科大訊飛還推出了 AI 眼鏡智慧體中心,聚焦英語陪練、智慧會議、面對面翻譯等場景,持續優化功能體驗,滿足使用者多元化需求。依託開放平台架構,智慧體中心支持各類大模型靈活接入,客戶可根據需求自由定製智慧體,打造專屬解決方案。這一創新進一步拓展了 AI 眼鏡的應用邊界,為用戶帶來更智慧、更便捷的交互體驗。

此次在智慧眼鏡大會上的亮相,科大訊飛不僅展現了其在智慧眼鏡領域的創新應用,更是其技術實力的全面體現。通過多麥克風陣列降噪、極速交互、多模態交互、語音辨識與翻譯等前沿技術,科大訊飛為智慧眼鏡賦予了更強大的感知與交互能力。這種突破傳統交互模式的技術方案,不僅顯著提升了智慧眼鏡在複雜場景中的實用性,也為行業展示了未來智慧穿戴設備的廣闊發展前景。