【看中國2013年09月13日訊】像《鋼鐵俠》中那樣智能先進的語音助手,人類還需要多久能用上?本週,國內幾家語音識別廠商先後公布自己的語音識別新策略,似乎人類與語音的自然交互漸行漸近。
科大訊飛昨日公告稱,自主研發的離線語音聽寫引擎將於9月下旬正式發布,將應用於「訊飛輸入法」等產品,可滿足用戶在無網路或弱網路下對語音技術的需求。在這之前幾天,另一家企業思必馳也在一次業內沙龍上宣布重新定義人機交互體驗的方向,主張讓機器從能聽會說變成會聽能做。
而國外巨頭也在布局語音識別領域。昨日有外媒報導稱,微軟正在研發代號為「Cortana」自有語音個人助手軟體,並計畫在下一個Windows Phone平台大升級中推出,以抗衡Google Now及蘋果Siri。
如思必馳副總裁兼對話工場總經理李建輝所言,智能設備發展大潮和移動互聯時代的到來,讓感知計算成為未來人機交互的發展方向,需要更加自然、直觀和身臨其境的交互方式。
科大訊飛移動互聯事業部副總經理章繼東將語音識別產品進化形容為一場馬拉松。在這個過程中,有不少廠商已經退出該領域,搜狗語音助手也不復曾經的高調推廣,Airi在一年前已經停止更新。另一款小i機器人轉做B2B市場。
有廠商退出,又有新的廠商進入,一輪基於語音識別應用的新的布局和競技已然開始。
蹩腳的語音交互體驗
儘管科大訊飛的訊飛輸入法語音識別率可以達到95%以上,但從整個語音識別應用來看,現階段的用戶體驗只能用蹩腳來形容。
一方面是語音交互的錯誤容易傳遞的先天缺陷使然。「如果語音識別的準確率在85%-95%之間,語義分析的準確率在85%-95%之間,最後識別的準確率只有70%-90%。」思必馳首席科學家俞凱說。
對於離線語音技術而言則更加困難。目前,擁有離線語音技術的有谷歌(微博)與蘋果兩大國際巨頭以及科大訊飛。但受無網路連接、存儲空間有限等原因,科大訊飛的離線語音識別成功率只有85%左右,「剛達到能用的水平。」
另一方面,語音識別技術因為技術門檻太高,往高級功能的進化還剛剛開始。「從語音評測、語音合成到對自然語義的理解,每一個方向都需要足夠的語料和演算法進行不斷的優化。」章繼東說。
在技術的優化的同時,還需要構建一個生態系統。比如社區問答,類似劉德華演的電影是什麼的問題,或者是基於音樂、視頻的知識圖譜,類似劉德華都演過什麼電影的問題。
「基於語音自然交互越來越便捷會取代鍵盤輸入等方式這是一個趨勢,但是上升到剛需的層面,現在不是時候。」章繼東說。
重金投向語音識別
儘管困難重重,語音識別技術的大方向已然不可逆轉。
「所有手機製造商都在投資語音、拓展語音技術領域的投資,打造更優雅的設計並將其深入集成到手機中。」語音識別技術公司Nuance高級副總裁邁克爾•湯普森這樣說。
儘管蘋果的Siri屢遭嘲笑,甚至被稱為蘋果最失敗的產品之一,但蘋果的投入有增無減。蘋果甚至在麻省理工大學(MIT)附近組建了神秘辦公室,用以做Siri 語音識別技術的研發。俞凱透露,Siri的語音技術部門的人員保持在1:4的配比。1個人負責研究語音的輸入輸出,4個人負責自然語言處理,用以攻堅語音自然交互的困難。
在語音識別領域深耕的國內廠商也獲得投資用以研發。去年,思必馳獲得聯想和啟迪等三方的聯合投資。去年,中國移動(微博)通過其子公司以13.63億人民幣的價格入股科大訊飛,佔股15%,隨後在當年12月聯合推出智能語音門戶產品「靈犀」。靈犀可以實現語音打電話、發簡訊、查天氣等功能。
誰能引爆語音交互?
「有時候可能就是熬,甚至也有可能未來是由於其他方向帶動起來。」章繼東說。他認為微信是其中一例。
在微信剛剛推出之時,很多人看到別的用戶在對著手機「自言自語」時會覺得很納悶,後來才發現是微信的語音對講功能。而現在,人們已經對朝著微信自說自話習以為常。
章繼東認為,下一個有可能引爆語音識別應用的是正越來越流行的可穿戴設備。比如手環可以把用戶數據傳到雲端去,然後分析出一個針對個人健康狀況的建議。甚至,數據發現一個用戶作息不規律,語音助手可以在用戶需要休息的時候給出一個語音提示。
更現實的應用是智能手錶等可穿戴設備,比如聲紋識別和語音喚醒等功能可以成為典型應用。前者用戶可以將自己的聲音做為開啟設備的密碼,後者則在用戶不接觸設備的情況下喚醒設備。
「我們也在和晶元廠商合作,嘗試將語音識別技術集成到智能可穿戴設備中,以此來降低功耗,擴大語音識別在可穿戴設備上的應用時間。」一家語音識別技術廠商的負責人說。