阿里聯手中科院研發“聽音識人”技術提升AI安全防線 獲國際頂會認可
幾年前,四川大學教師在某綜藝節目中展現了一個“挑戰不可能”的技能,女教師在不認識辨別對象的情況下,蒙著眼與人交談幾句話,就能匹配聲音和人臉,準確地從10多人中找到聲音的主人。
最近,中科院和阿里安全的研究者也挑戰了“不可能”,他們讓AI掌握了上述女教師的這項技能。通過訓練AI模型,研究表情和聲音的關系。給定一段聲音和僅有一張正確人臉的若干張圖片,AI將為該聲音找到“主人”。經驗證,相較于人類67%的正確率,AI的準確率接近90%。在“1對N”的匹配實驗中,AI還能對聲音歸屬人臉的“可能性”進行排序。
這種技術是一種自適應的學習框架,用來挖掘和學習人臉與聲音的潛在聯系,該論文研究成果隨即也被CVPR 2021接收。
現有研究表明,人臉和聲音受到年齡、性別、生理結構、語言習慣等共同因素的影響,兩者的聯系強烈而復雜多樣。該研究第一作者、中科院計算所博士研究生溫佩松介紹,中科院和阿里安全的研究團隊將公開數據集中兩種類型的數據在共享空間中表示,從而達到跨模態匹配的目的,在學習策略上利用了數據集的局部和全局信息,提高了模型的學習效率和效果。
通俗來看,即聲音可能是音頻格式,人臉是圖片格式,兩類信息以不同的格式存儲,難以比較,所以研究者將聲音和人臉“翻譯”成了同一種格式的信息,讓AI模型可以對兩種信息之間的關聯自行學習。AI學會了兩種信息的關聯性之后,就能幫聲音找到人臉,或者幫人臉找到聲音。因此,AI的這項技能不僅可以“聽音識人”,還能“見人知聲”。
溫佩松介紹,該研究進行了三類實驗,第一種,給定一段聲音和僅含有一張正確人臉的若干張人臉圖片,AI匹配聲音和人臉的正確率最高可達87.2%;第二種,給定一段聲音和一張人臉,詢問AI這是否屬于同一個人,準確率最高可達87.2%;第三種,給定一段聲音和含有若干張正確人臉的圖片,要求AI把所有人臉排序,使得正確的人臉盡可能靠前,AI也能準確完成任務。該實驗在公開測試集上一共測試了20076張人臉和21850段音頻,AI的表現都令人驚喜。

圖說:AI模型通過比較聲音和人臉圖片在共享空間的距離,推斷出相似度,按相似度將候選人臉排序。
在相同的任務上,如果待鑒別對象不限制性別,人類判斷的準確率達81.3%,在限制性別的情況下,準確率僅為57.1%,性別因素對AI的影響卻非常小,準確率依然如上述結果,高于人類。
據阿里安全圖靈實驗室資深算法專家華棠介紹,該技術后續將在內容安全和賬戶安全領域探索應用,對抗偽造類視頻攻擊,保護用戶財產和信息安全?!坝行┤死脗卧煲曨l試圖騙過認證系統,AI的這項技能將進一步驗證聲音與相應真人是否匹配,防范欺詐,守護安全。”華棠說,這也是讓AI在提升安全水位上有更多用武之地。
- 免責聲明:本文內容與數據僅供參考,不構成投資建議。據此操作,風險自擔。
- 版權聲明:凡文章來源為“大眾證券報”的稿件,均為大眾證券報獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為“大眾證券報”。
- 廣告/合作熱線:025-86256149
- 舉報/服務熱線:025-86256144
