產經情報

富士通發表新AI技術 實現世界第一高精度圖像識別

日期:2021-01-22

富士通研究所發表新的人工智慧技術,透過深度學習可從關節位置識別複雜的人類行為,並成功實現了世界第一的高精度圖像識別。

這項行為識別技術,透過深度學習來識別多個關節串聯的複雜動作,或獲取行為中相鄰關節位置資訊。較過往未使用鄰近關節資訊的常規技術相比,獲得相當顯著的進步。例如開箱取出物品,手、肘部及肩關節隨著手臂彎曲和伸展,這樣多關節相互變化的複雜行為也能獲得識別。

富士通研究所於日前1月10日至1月15日在線上舉行的第25屆國際模式識別會議(25th International Conference on Pattern Recognition,ICPR 2020)中揭幕這項新AI技術的細節。

2021年中,富士通研究所將追加此項新技術至「行為分析技術Actlyzer」中,期待打造更高精確度且能快速應用的辨識系統。應用於檢查工廠的工作程序以及檢測公共環境中的危險行為,可望大力提升社會安全性。

近年來AI技術的進步,已實現深度學習從視頻圖像識別人類行為。

一般來說,利用AI進行人類行為識別取決於各骨骼關節位置的時間變化,包括手、肘部及肩關節的識別特徵,然後將這些特徵連接到簡單的運動模式(例如站立或坐下)。常規技術下已能準確掌握每個關節的特性。再加上對完成訓練的AI模型,進一步提供連接相鄰關節的組合特徵,來實現複雜運動的高精度識別。

富士通針對圖形卷積神經網路(Graph Convolutional Networks,GCN)開發了一組新的AI模型,藉由採取透過以人體關節姿勢的結構為節點作為基礎,以鄰近關節(作為節線)所構成的圖來執行圖結構的卷積運算。

透過關節的時間序列數據,預先訓練此模型可以優化與相鄰關節的連接強度(Weight)並可以獲取用於行為識別的有效連接關係。

這項技術利用骨架數據對行為識別領域的世界基準進行了評估。在實際數據中,與簡單行為(如坐、立)相比,準確率和常規技術持平;然而,在諸如開箱或扔擲的複雜行為辨識上準確率則大大地提升,與常規技術相比提高了7%以上,成功達到世界第一的識別精度。