應用

技術

物聯(lián)網世界 >> 物聯(lián)網新聞 >> 物聯(lián)網熱點新聞
企業(yè)注冊個人注冊登錄

人臉識別技術介紹和表情識別最新研究

2020-11-11 09:42 3D視覺工坊

導讀:人臉識別主要包括一對一或者一對多的應用場景,對目標人臉進行識別和驗證。

一、人臉識別技術介紹

人臉識別作為一種生物特征識別技術,具有非侵擾性、非接觸性、友好性和便捷性等優(yōu)點。早在二十世紀初期,人臉識別已經出現(xiàn),于二十世紀中期,發(fā)展成為獨立的學科。人臉識別真正進入應用階段是在90年代后期。人臉識別屬于人臉匹配的領域,人臉匹配的方法主要包括特征表示和相似性度量。

人臉識別通用的流程主要包括人臉檢測、人臉裁剪、人臉校正、特征提取和人臉識別。人臉檢測是從獲取的圖像中去除干擾,提取人臉信息,獲取人臉圖像位置,檢測的成功率主要受圖像質量,光線強弱和遮擋等因素影響。獲取人臉后,人臉裁剪是根據實際需求,裁剪部分或整體的人臉,進一步精確化人臉圖像。為提高人臉識別準確率,人臉校正可以盡可能的降低由于姿態(tài)和表情導致的人臉變化,獲取正面或者平靜狀態(tài)下的人臉照片。特征提取利用不同的特征,對圖片進行相似度的衡量和評價。人臉識別主要包括一對一或者一對多的應用場景,對目標人臉進行識別和驗證。

人臉表達模型主要分為2D,2.5D,3D。2D人臉指的是RGB,灰度和紅外圖像,是確定視角下表征顏色或紋理的圖像,不包括深度信息。2.5D是在某一視角下拍攝獲取的人臉深度數(shù)據,但是曲面信息不連續(xù),沒有被遮擋部分的深度數(shù)據信息。3D人臉由多張不同角度的深度圖像合成,具有完整連續(xù)的曲面信息,包含深度信息。2D圖像人臉識別的研究時間較長,軟硬件技術較為完備,得到了廣泛的應用。但是由于2D圖像反映二維平面信息,不包含深度數(shù)據,不能夠完整的表達出真實人臉模型。相比于二維人臉圖像,三維圖像不受光照等影響,具有更強的描述能力,能夠更為真實的反映人臉信息,在人臉合成、人臉遷移、三維人臉識別等場景中應用。3D人臉識別一般采用深度相機獲取人臉深度信息,主要包括雙目相機,基于結構光原理的RGB-D相機和基于光飛行時間原理的TOF相機。常見的三維人臉識別算法主要包括傳統(tǒng)識別方法和深度學習識別方法。

1.傳統(tǒng)識別方法

(1)基于點云數(shù)據的人臉識別

點云是3D人臉數(shù)據的一種表征方式,每一個點都對應一個三維坐標,掃描設備使用這種數(shù)據格式存儲采集的三維人臉信息,甚至可以將稀疏坐標也拼接到形狀信息上,更為完善的反映人臉信息?;邳c云數(shù)據的3D人臉識別直接使用三維點云進行匹配,常見方法有ICP(Iterative Closest Point)和Hausdorff距離。前者可以修正點云信息中平移和旋轉變換的誤差,后者利用三維點云之間的距離最大值,匹配人臉,但是兩者均存在魯棒性不足的問題。

(2)基于面部特征的3D人臉識別

人臉的面部特征主要包括局部特征和全局特征,局部特征可以選擇從深度圖像上提取關于面部關鍵點的特征信息,全局特征是對整張人臉進行變換提取特征,例如球面諧波特征或者稀疏系數(shù)特征。

2.深度學習識別方法

(1)基于深度圖的人臉識別

深度圖像中三維數(shù)據的z值被投影至二維平面,形成平滑的三維曲面。可使用歸一化網絡和特征提取網絡實現(xiàn)深度圖人臉識別,歸一化網絡將輸入的深度圖像轉化為HHA圖像,再使用卷積神經網絡回歸用于獲取歸一化深度圖的參數(shù),特征提取網絡用于獲取表征深度圖人臉的特征向量。

(2)基于RGB-3DMM的人臉識別

3DMM是指三維人臉變形統(tǒng)計模型,其最早是用于解決從二維人臉圖像恢復三維形狀的問題,現(xiàn)多被用于對深度圖像或彩色圖像進行人臉模型回歸,實現(xiàn)識別任務。

(3)基于RGB-D的人臉識別

RGB-D圖像是包含了彩色圖像和深度圖,前者是從紅、綠、藍顏色通道獲取的圖像,后者是指包含與視點的場景對象的表面的距離有關的圖像通道,兩者之間是相互配準。通過對彩色圖像和多幀融合后的深度圖像分別進行預訓練和遷移學習,在特征層進行融合,提高人臉識別率。

二、表情識別最新研究

1) Facial Emotion Recognition with Noisy Multi-task Annotations

摘要

從面部表情可以推斷出人類的情感。但是,在常見的情感編碼模型中,包括分類和維度模型,面部表情的注釋通常會非常嘈雜。為了減少人為標注多任務標簽的工作量,文中引入了帶有嘈雜的多任務注釋的面部表情識別新問題。對于這個新問題,文中建議從聯(lián)合分布匹配的角度進行計算,其目的是學習原始人臉圖像和多任務標簽之間更可靠的關聯(lián),從而減少噪聲影響。采用一種新方法來在統(tǒng)一的對抗性學習游戲中啟用情緒預測和聯(lián)合分布學習。在廣泛的實驗中進行的評估研究了所提出的新問題的實際設置,以及所提出的方法在合成嘈雜的帶標簽CIFAR-10或實際嘈雜的多點干擾方法上優(yōu)于最新競爭方法的明顯優(yōu)勢標記為RAF和AffectNet的任務。

本文探討的是嘈雜的多任務標簽中面部表情識別的問題。實際應用中,兩種最常用的面部情緒編碼模型是分類和維數(shù),但是通過從可用的情感標簽中進行模型的學習容易產生不好的結果,因此,文中提出的公式是從聯(lián)合分布匹配的角度解決此問題的,旨在利用數(shù)據和多任務標簽之間的相關性來減少標簽噪聲的影響。

該文為解決人臉情感識別的實際案例提供了一些貢獻,主要可概括為以下三點:(1)提出了一個帶有嘈雜的多任務標簽的面部表情識別新問題,該問題的目標是易于獲得的廉價多任務注釋;(2)提出了一種廣義化的公式,在數(shù)據和異構多任務標簽之間具有明確的聯(lián)合和邊際分布匹配;(3)引入了一種新的對抗學習模型,以基于聯(lián)合和邊際分布的約束條件來優(yōu)化對情緒預測的訓練,這被證明適合于新提出的問題。

帶有噪音標簽的面部情感識別僅在帶有噪音標簽的面部圖像上訓練魯棒模型。傳統(tǒng)的方法是直接用噪聲標簽分布對噪聲建模,但是傳統(tǒng)的條件概率建模具有幾個明顯的缺點,例如轉換矩陣缺乏約束條件收斂到真值等。針對于此,本文利用匹配兩個聯(lián)合分布的關鍵思想,考慮在兩對數(shù)據和標簽上的以下兩個聯(lián)合概率分布:

由于對現(xiàn)實世界數(shù)據的數(shù)據分布的顯式概率密度函數(shù)進行建模難以計算,因此將兩個聯(lián)合分布與精確建模進行匹配通常是不可行的。為克服該問題,本文采用了生成對抗模型方法。其中,編碼器的學習函數(shù)以從輸入圖像中推斷出干凈的標簽,解碼器的學習函數(shù)以生成面部圖像,來自嘈雜標簽的對應表達式。整體架構如下圖所示

為了匹配編碼器和解碼器捕獲的聯(lián)合分布,在生成器和鑒別器之間進行對抗游戲。鑒別器是專門為匹配面部圖像,噪聲矢量以及GY和GX的多任務標簽的組的聯(lián)合分布而設計。對于聯(lián)合分布對齊,一種自然的方法是將分別從編碼器和解碼器采樣的數(shù)據在網絡中以進行對抗訓練。但是,每個組中的數(shù)據是高度異構的,因此直接串聯(lián)是不合適的。為了減少數(shù)據和多任務標簽之間的異質性,本文采用多個網絡流,并將所有網絡流的輸出送入網絡,完整的目標函數(shù)如下,

文中提出的生成器和鑒別器能夠在統(tǒng)一框架內優(yōu)化基于情緒預測的損失和基于分布匹配的約束。文中根據此方案設計了最小—最大目標函數(shù):

在該文中,由于將面部情感識別視為目標任務,因此將情感預測用作輔助任務,從而從圖像到標簽的關系和任務到任務的關系中使目標任務受益,該算法如下圖所示。

文中在兩種情況下對該模型進行評估:(1)用于圖像分類的合成噪聲標簽數(shù)據集(CIFAR-10 [25]);(2)用于面部表情識別的兩個實用的面部表情數(shù)據集(RAF和AffectNet)。

下圖為實驗1的結果,可見采用文中提出的模型使得準確率得到提高。

下圖為基線和在訓練步驟中提出的模型的測試準確性曲線的可視化呈現(xiàn)。

下圖為實驗2的面部情緒數(shù)據集的評估結果,可知在多任務情況下,運用本文提出的模型獲得的預測準確性更高。

本文介紹了一個帶有噪聲的多任務注釋的面部情緒識別的問題,在減少人為多任務學習的標簽工作方面具有很大的應用潛力。文中從聯(lián)合分配匹配的角度介紹了一種新的公式,按照該公式,采用一種新的對抗學習方法來共同優(yōu)化情緒預測和聯(lián)合分布學習。最后研究了合成噪聲標簽數(shù)據集和實用的噪聲多任務數(shù)據庫的建立,并通過對它們的評估證明了該方法在解決新問題方面的明顯優(yōu)勢。

2) THIN: THrowable Information Networks and Application for Facial Expression Recognition In The Wild

摘要

對于使用深度學習技術解決的許多任務,可以識別一個外生變量,該變量會影響到不同類的外觀,并且理想分類器能夠對此變量始終保持不變。本文提出了雙重外生/內生表示法。文中設計了一個預測層,該預測層使用由外生表示條件限定的深度整體,可以學習自適應的弱預測變量的權重,并且顯式地建模外生變量和預測任務之間的依賴關系。此外,文中提出了外源性消除損失的計算,以從內源性表示中刪除外源性信息。因此,外生信息被使用了兩次,第一次是作為目標任務的條件變量,第二次是在內生表示中產生不變性。本文將該方法命名為THIN,代表THrowable Information Net-works。本文在幾種可以識別外源信息的情況下,通過實驗驗證了THIN,例如大旋轉下的數(shù)字識別和多尺度下的形狀識別。還將其應用于以身份為外生變量的FER。特別是證明了THIN在某些具有挑戰(zhàn)性的數(shù)據集上的性能明顯優(yōu)于最新方法。

深度學習技術在計算機視覺的監(jiān)督學習中取得了重大進展,允許共同學習一種表示形式和基于這種表示形式的預測變量。完善的深度學習技術構成了大多數(shù)計算機視覺問題中的最新方法,例如對象分類或檢測,語義分割或面部和身體分析。然而,在許多此類任務中,對象的外觀會受到外生變量的嚴重影響,理想情況下,任務預測應根據該變量進行不變。

但是,與此同時,從預測系統(tǒng)的角度來看,無論外在變量(例如受試者身份)的變化如何,都應該預測我們的目標任務(例如面部表情)。因此,本文認為與任務相關的表示(稱為內生表示)應包含盡可能少的有關外生變量的信息。

綜上所述,在這種情況下,該外生變量是數(shù)據變化的重要來源,同時也是信息的來源,從該信息中,預測變量的輸出應盡可能不變。因此,我們建議使用單獨的外在和內在表示。

本文的貢獻:(1)提出了一個外生樹狀深度集成方法,該模型使用內生和外生雙重網絡。第一個輸出表示用于預測任務,而第二個輸出的表示通過適應性和聯(lián)合學習更多相關的弱預測變量,以進行深度相關的調整;(2)提出了一種外源消除損失,通過內源表示與外源表示之間的正交性,從內源表示中消除外源變異;(3)在具有不同外生變量的多個任務上實驗性地驗證了這種方法。

文中通過深度神經網絡對外生信息建模,然后從定義一個簡單的基線模型開始,然后逐步引入其他的架構,從而描述如何明確地合并外生表示和任務預測之間的依賴關系,整體架構如下圖所示。

如上圖所示,主要呈現(xiàn)了基線框架,簡單的深度集成方法框架,樹狀深度集成方法框架,外生樹狀深度集成方法框架。從基線框架開始,通過自適應加權深層集成的預測并利用外源表示來逐步改進框架的設計方法。

樹狀深度集成網絡通過參數(shù)優(yōu)化相應的損失,然后將與外生變量有關的信息分解為內生表示中的任務,并將提取的外生和內生的特征輸入網絡和進行輸出,通過超參數(shù)進行實驗設置,從而實現(xiàn)從內在表征中去除外源性信息。

文中通過將模型在合成數(shù)據集上進行評估,從中可以清楚地識別外生變量。緊接著,在真實的FER數(shù)據集中定性和定量驗證模型,主要是介紹了用于訓練或測試所提出方法的數(shù)據集,具體的實現(xiàn)細節(jié)。下圖中Table 2為在MNIST-R和dSprites數(shù)據集上,根據平均準確度比較不同體系結構;Figure 4為MNIST-R以平均準確度表示的消融外源表征消除的消融研究

除了在MNIST數(shù)據集上之外,文中還在RAF-DB,AffectNet和ExpW數(shù)據集上進行了實驗驗證,Table 3從平均準確率上比較了不同的體系架構,F(xiàn)igure 5是在數(shù)據集RAF-DB上進行消融研究的結果。

最后將THIN與最新的FER方法進行了比較,證明了THIN在當今最新的,具有挑戰(zhàn)性的FER數(shù)據庫上的性能明顯優(yōu)于最新技術。

本文中所提出的模型具有較多的應用可能性。首先,理論上可以將THIN直接應用于其他問題,例如以姿勢或比例作為外生變量的身體姿勢估計,或具有領域信息的語義分割。其次,在本文中僅使用一個外生變量來訓練THIN。但是,可以嘗試使用多個這樣的變量和表示網絡以及某種融合方案來應用。此外可以嘗試使用身份作為外生變量的THIN來預測面部表情,然后使用以面部表情作為外生變量的另一個THIN來預測身份,依此類推,以迭代地完善FER和身份預測。

備注:在公眾號「計算機視覺工坊」后臺,回復「人臉識別技術」,即可獲得上述兩篇論文。

參考文獻

1、基于深度學習的自然場景下多人臉檢測

2、Facial Emotion Recognition with Noisy Multi-task Annotations

3、THIN: THrowable Information Networks and Application for Facial Expression Recognition in the Wild

本文僅做學術分享,如有侵權,請聯(lián)系刪文