技術論壇
發文時間 2020/05/08 作者 小文
瀏覽次數 2265 留言數量 10 按讚 0
客服機器人/語意分析類 語音辨識Siri
雖然Siri的語音辨識能力越來越精準,但有些字句Siri就是聽不太懂,請問這是因為技術問題嗎?
發文時間 2020/05/11 作者 omnixri
按讚 0
這個問題或許可從二個方面來來看,首先是麥克風收音問題,聽不清楚當然就聽不懂,所以現在多半會加入多個麥克風來消除噪音、風切、加強人聲等功能,若再加上取樣頻率增加就會更語音更清晰許多。
第二個方面來看是語音內容訓練不足,比方說未大量納入台灣特有的台灣國語腔調,或者國台語或國英語甚至國台英語混雜一起說的內容,或者斷句方式,若再加上中文特有的同字不同音或同音不同義甚至輕重音就語義不同等問題,就很容易造成SIRI聽不懂的問題產生。
而這些問題是否有解呢?第一項硬體已逐漸改善,但第二項則有待SIRI對中文的加強,目前只有提供少量特殊自訂義語音命令的改善,解決如像連「Hi, Siri」都聽不懂,喚不醒的問題。
發文時間 2020/05/12 作者 laisan86
按讚 0
我是覺得這問題問得太籠統了! Siri這類型的服務其實再智慧音箱還沒有推出的年代就有, 而且說實話用自然語言技術來說, 當年的技術恐怕還不算成熟
第一個是收音裝置, 麥克風的品質以及錄音給Siri聽當時的環境值得考量, 一般來說當然是外界干擾越少越好, 不過要是同時間很多App在後台運作, 處理機得要不斷地切換工作、占用資源, 勢必對於像是Siri來說多少會受影響
第二個是自然語言的處理與詞彙問題, 這跟App開發時的辭庫系統設計來說也是個挑戰! 尤其有些字句可能在定義上並不清楚, 對於Siri來說當然一頭霧水, 特別是中文裡面有不少字與音的變化對應, 複雜度比起許多國家的語文要高
發文時間 2020/05/12 作者 omnixri
按讚 0
最近科技部2020「科技大擂台 與AI對話」競賽4/24剛落幕。這是第二次舉辦,本次參考「華語文能力測驗」流利精通級難度,以更進階的閱讀、申論題為主,並搭配連續對話等考題,期望AI回答問題時,更深化「理解」語意後、進一步「思考」以完整的字句來對話。但很可惜的是第一名一千萬從缺,由此可得知中文有多難搞。有興趣的朋友可以參考一下先前科技部釋出的範例,看了就不難了解要完善一個自然對話系統有多難,因為連我都有可能答不上來呀。
https://www.facebook.com/watch/?v=2503399553308986
更完整新聞可參考 2020「科技大擂台 與AI對話」競賽結果揭曉
https://www.most.gov.tw/folksonomy/detail/4b14a040-0e62-4d29-be33-9880d7623527
發文時間 2020/05/16 作者 bioasura
按讚 0
語音辨識最後的結果是要對應回對應的語料, 如果語音辨識前面已經沒有相關的資料集, 就算是每一個音Siri都聽的懂, 但是對應回一個語句的時候, 因為一個句子是詞的對應, 沒有正確的語料集合, 就無法預測回可能潛在的正確語句, 這樣的狀態其實顯示的情形是, 沒有準備好的資料集, 就沒有辦法對應正確的結果.
其實可以回頭思考一個狀態, 很多時候其實人本身溝通也會有這樣的現象, 這很像一個年輕人對一個老人說話, 所使用的詞語跟發音的方法不同, 也很多時候會聽不懂對方的語言跟詞彙的對應. Siri畢竟是美國人做的, 甚至區域的方言用詞也不一定相同, 也許日後看看Siri是否可以開放一個功能, 讓你教他認識這個世界更多的事情, 或許Siri就會知道怎樣將這些辨識錯誤的語句, 產生人們想要的比較正確的預測結果的對應資料集.
發文時間 2020/05/18 作者 jingrul691
按讚 0
麥克風技術沒有突破性進步,這直接影響到這些服務的收音效果,如果這些服務無法收音,聽不到用戶所說的話,這就好像對著一個有聽力障礙的人說話,對方根本聽不到你在說什麼。
發文時間 2020/05/18 作者 zhoujieren8
按讚 0
也許是詞彙量不夠的問題,如果它是為你自動訂飛機票,那麼它還應該會認識地名、時間等成百上千的必須使用的詞彙,這是中等詞彙量語音識別系統;如果它是為了記者把口述的一篇稿件轉化成為文字,那麼計算機就必須有很大的詞彙量,才能夠勝任這樣的工作,這屬於大詞彙量語音識別系統。
發文時間 2020/05/18 作者 chengxiansong2
按讚 0
一個同樣的問題,可能因為聊天的前後內容、情境,或主題,有不同的答案。 因為聽不懂或聽錯的誤解,以及回答僵化的限制,導致答非所問。
發文時間 2020/05/18 作者 ypei91510
按讚 0
也有可能是發音問題,如果Siri聽不懂你講的,可將自己的問句打入Google Translate,然後按下發音鍵,重複多聽幾次,並shadow網頁/app的人工智慧發音來調整自己的發音,念了幾次直至自己覺得發音較沒問題後,再詢問Siri 試試看。
發文時間 2020/05/18 作者 shuechang886
按讚 0
蘋果收購 AI 新創公司 Voysis,讓 Siri 更能聽懂人話,據報導,現被刪除的網頁聲稱,Voysis 透過處理「我需要一台新 LED 電視」和「我的預算是 1,000 美元」等與零售相關短句縮小產品搜尋結果。有效的語言處理允許用戶更自然與人工智慧語音助理互動,消除記憶關鍵命令短語等障礙。
據了解,此解決方案基於 WaveNet 技術,是由 Google 的 DeepMind 計畫在 2016 年引入。WaveNets 描述為「原始音頻波形的深層生成模型」,可用於生成模仿任何人類聲音的語音,提供更自然的虛擬助理體驗。看來,Voysis 將此方法應用於更準確採樣和翻譯人工智慧系統的人類語音命令。
發文時間 2020/05/18 作者 junwei01
按讚 0
有方法可以訓練Siri的聽力,
Apple 早早就在iOS中,建立了這個訓練功能,
只要這樣做行了喔:
在iPhone(或是任何iOS裝置)中,開啟『設定』。
然後點選『一般』>『輔助使用』>『語音』。
在語音的頁面中,拉到最下面,就會看到一個『發音』這個標籤,點進去。
進到『發音』的頁面後,會看到空空如也,一個全白的內容,但右上方有一個加號(『+』),點他。
點了『+』之後,把Siri老是聽不懂的字詞填入『字詞』欄位。
不過說起來像是Siri這樣的東西, 應該以目前的眼光來看, 還不算太難做! 目前不少線上服務就可以免費提供給大家使用, 要不然你查查好比Wolfram這種就可以, 我也自己以前試做過一個 :
https://www.youtube.com/watch?v=jCZTOcmJRNs
其實只要提供有足夠的詞句當作樣本, 然後加上機器學習演算法來訓練電腦, 這方面比較有成效的就是RNN那類的演算法, 訓練後的電腦可以做語音轉文字Speech recognition, 再把語音轉成的文字透過自然語言處理NLP做進一步句意分析與處理, 那就能讓電腦根據人的口語達到回應的效果了
不過說來簡單可是做來也是得靠『工人智慧』就是~XXD
作者 laisan86 發文時間 2020/05/12 按讚 0