久久99国产精品久久99_日韩在线第二页_日韩人妻无码一区二区三区久久_久久亚洲私人国产精品

咨詢熱線:021-80392549

 QQ在線  企業(yè)微信
 資訊 > 人工智能 > 正文

谷歌開源AI能區(qū)分聲音 準確率達92%

2018/11/29機器人網(wǎng)482

據(jù)VentureBeat報道,在語音嘈雜的環(huán)境中,要想分辨出有幾個人講話、在什么時間講話,對于機器來說非常困難。但谷歌人工智能(AI)研究部門在語音識別方面取得了新進展,能以92%的準確率識別出每個人聲音的專屬模式。

谷歌AI


谷歌AI研究部門在最新名為《FullySupervisedSpeakerDiarization》的論文和相關博客文章中,研究人員描述了一種新的AI系統(tǒng),它“能以一種更有效的方式識別聲音”。


這套系統(tǒng)涉及到Speakerdiarization任務,即需要標注出“誰”從“什么時候”到“什么時候”在說話,將語音樣本分割成獨特的、同構片段的過程。強大的AI系統(tǒng)必須能夠將新的演講者發(fā)音與它以前從未遇到過的語音片段關聯(lián)起來。


這篇論文的作者聲稱,核心算法已經(jīng)可在Github上的開源軟件中可用,它實現(xiàn)了一個在線二值化錯誤率(DER),在NISTSRE2000CALLHOME基準上是7.6%,這對于實時應用來說已經(jīng)足夠低了,而谷歌之前使用的方法DER為8.8%。


谷歌研究人員的新方法是通過遞歸神經(jīng)網(wǎng)絡(RNN)模擬演講者的嵌入(如詞匯和短語的數(shù)學表示),遞歸神經(jīng)網(wǎng)絡是一種機器學習模型,它可以利用內(nèi)部狀態(tài)來處理輸入序列。每個演講者都從自己的RNN實例開始,該實例不斷更新給定新嵌入的RNN狀態(tài),使系統(tǒng)能夠學習發(fā)言者共享的高級知識。


研究人員在論文中寫道:“由于該系統(tǒng)的所有組件都可以在監(jiān)督環(huán)境下學習,所以在有高質(zhì)量時間標記演講者標簽訓練數(shù)據(jù)的情況下,它比無監(jiān)督系統(tǒng)更受青睞。我們的系統(tǒng)受到全面監(jiān)督,能夠從帶有時間戳的演講者標簽例子中學習?!?


在未來的工作中,研究團隊計劃改進模型,使其能夠集成上下文信息來執(zhí)行脫機解碼,他們希望這將進一步減少DER。研究人員還希望能夠直接對聲學特征進行建模,這樣整個Speakerdiarization系統(tǒng)就可以進行端到端訓練。

關鍵詞: 人工智能




AI人工智能網(wǎng)聲明:

凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與網(wǎng)站(m.gzlyhb.com)聯(lián)系,本網(wǎng)站將迅速給您回應并做處理。


聯(lián)系電話:021-31666777   新聞、技術文章投稿QQ:3267146135   投稿郵箱:syy@gongboshi.com

工博士人工智能網(wǎng)
商城
服務機器人
智能設備
協(xié)作機器人
智慧場景
AI資訊
人工智能
智能機器人
智慧城市
智慧農(nóng)業(yè)
視頻
工業(yè)機器人
教育機器人
清潔機器人
迎賓機器人
資料下載
服務機器人
工博士方案
品牌匯
引導接待機器人
配送機器人
酒店服務機器人
教育教學機器人
產(chǎn)品/服務
服務機器人
工業(yè)機器人
機器人零部件
智能解決方案
掃描二維碼關注微信
?掃碼反饋

掃一掃,反饋當前頁面

咨詢反饋
掃碼關注

微信公眾號

返回頂部