不要別的,只要科學

90%!它們「善解人意」到這個份上


作者:張雙虎

小說《三體》中,「三體人」不會撒謊、彼此思維和情緒完全透明,這樣的情節正逐漸變為現實。

隨著人工智能(AI)情緒識別技術的發展,機器已經能識別人類情緒的變化。

情緒識別正被越來越廣泛地應用於機器智能中,也許有一天,人類會被AI徹底看穿。

近日,台灣聯合大學研究人員在IEEE

該方法與時空圖卷積網絡(ST-GCN)相比,「可有效地將識別精度提高50%以上」。

  別動,動就被看穿

「通過面部特征、語義與腦波分析來識別人類情緒的研究已經比較多了,AI也能有效地識別出人類的情緒。我們試圖提出一種新的情緒識別方式,可以讓人們在不同場景下有更多選擇,未來也可以通過多手段融合,更准確地進行情緒識別。」

論文第一作者、台灣聯合大學助理教授蔡明峰在接受《中國科學報》采訪時表示,「基於Pose

在人工智能情緒識別領域,基於面部、語義或腦電波識別技術需要大量的訓練樣本,通過時空變化圖卷積網絡(STV-GCN)的連續運動來訓練和識別人類行為模式。

其識別訓練方法采用骨骼檢測技術,計算連續動作之間的骨骼點變化程度,並使用特定算法對速度水平進行分類,以區分快速和細微的動作。

目前,該系統對相同動作不同速度的識別精度達到88.89%,情緒狀態的識別精度達到83.34%。

在速度分類階段和情緒狀態分類階段,STV-GCN的准確率比ST-GCN提高50%以上。

但是,STV-GCN尚難以區分微妙的情緒變化。

蔡明峰認為,在類似城市廣場的開放區域中,通過骨骼點變化進行情感識別,可以避免潛在的危險發生。

系統可以主動識別憤怒或者悲傷等特殊情緒狀況的人,並主動通知該區域的安全管理人員進行處理,可以在一定程度上規避暴力沖突或惡性傷害事件發生。

  AI「懂你」九分

「並非只有面部才有微表情,身體姿態也有。」

中國科學院自動化研究所研究員、模式識別國家重點實驗室副主任陶建華告訴《中國科學報》,「通過面部區域或身體姿態來識別情緒其實各有優缺點,各有不同的適應場景,很難說誰比誰強。」

在AI情緒識別領域,多數識別方法在分析面部表情的背景下進行。而在現實生活中,人們有時會通過語言和表情來掩飾自己的情緒,相比之下,肢體語言卻很難操縱,微表情很難被掩飾,往往能傳達出更細致、真實的情感狀態。

陶建華介紹說,目前主要有兩種AI情感識別方式。

一種是接觸式,即利用腦電、皮膚電、心率心跳等生理特征的信號變化,通過生理參數分析人的情緒變化。

另一種是非接觸式,可以基於音頻或視頻,利用聲音的特點或者依靠視頻信息中表情、頭部、身體姿態變化進行識別。

「無論是傳統的統計模型,還是現在基於神經網絡、深度神經網絡的一些方法,都能取得比較好的結果」。

「機器不但能識別出人的情緒,還相當准確。總體來說,現在的准確率超過80%,在一些特定的場景中,甚至能達到90%以上。」

陶建華說,「情感識別是一種信息通道,准確的識別能增強機器對人的理解能力,如果結合語義、周圍環境等信息,機器可以綜合判斷人的心理狀況和真實的意圖,從而改善人機交互能力,增強人機交互的友好性。」

  更多的應用場景

「能夠識別出人類的情感和機器自己具備情感是兩個概念。」

陶建華說,「情感的產生涉及一系列複雜的心理過程,是包括社會文化、周圍環境情況、心理狀態等多因素綜合作用的結果。盡管人們對AI情感表現方面有些研究,但目前從全球範圍內來說,機器產生的情感都是比較初級,與人類還有不小的距離。」

陶建華介紹說,機器與人、機器與機器之間的交流和人們的理想尚有距離。

在情感識別過程中,如何在一個數據集中做好一個模型、在更大範圍內使用是一個問題。

「為此,有些方面需要進一步提高,但這些都不是難以克服的問題。」

如果AI能夠更「善解人意」,就可以應用到更多的場景。

比如,在全球疫情常態化的背景下,線上學習逐漸成為一種重要的學習方式。但是,屏幕前的學生是否在認真聽講、是否聽懂了?他在困惑、緊張或者覺得乏味時,都會有相應的情緒和表現。

如果通過AI技術,識別出屏幕前學生的情緒並判斷出學習狀態,就可以更好地控制難度和進度。

截至目前,已經有不少AI情緒識別研究機構在遠程醫療、遠程教育、養老看護、打擊犯罪、營銷、遊戲,以及定向廣告投放等領域進行探索。

據一家市場研究公司預測,2021年全球情感計算市場將達到540億美元。


熱門內容

友善連結