由天津師范大學(xué)心理學(xué)部田雪博士課題組完成的論文“Decoding face identity: A reverse-correlation approach using deep learning”在Cognition發(fā)表。
面孔刺激為我們提供了關(guān)于個(gè)體身份、年齡、性別和情緒狀態(tài)等的重要信息,這對于個(gè)體的社交活動(dòng)至關(guān)重要。那么,在復(fù)雜的面孔識(shí)別任務(wù)中,我們究竟依賴哪些核心特征來做出判斷呢?該研究采用反向相關(guān)方法,結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,簡稱DCNN)的激活表征,旨在客觀、精準(zhǔn)地揭示面孔識(shí)別過程中的關(guān)鍵特征。具體而言,在VGG-Face模型的基礎(chǔ)上,訓(xùn)練了一個(gè)能夠執(zhí)行面孔辨別任務(wù)的DCNN模型,命名為VGG-FD。在驗(yàn)證了VGG-FD具有人類相似的面孔辨別能力后,基于其輸出結(jié)果,將刺激對劃分為“擊中”、“虛報(bào)”、“漏報(bào)”和“正確拒絕”四類。隨后,通過計(jì)算“漏報(bào)”與“正確拒絕”刺激對之間以及“擊中”與“虛報(bào)”刺激對之間激活模式的絕對差異,并應(yīng)用反向相關(guān)法進(jìn)行重建,最終生成了揭示關(guān)鍵區(qū)分信息的“區(qū)分特征圖”。基于此方法,研究發(fā)現(xiàn),當(dāng)面孔刺激在眼睛、眉毛和面孔中央?yún)^(qū)域的表征存在顯著差異時(shí),它們更易被判別為不同個(gè)體的面孔。這表明,面孔識(shí)別主要依賴于特定的局部面部特征(如眼睛和眉毛),以及對面孔整體構(gòu)型起關(guān)鍵作用的面部中央?yún)^(qū)域。
該研究不僅為探究面孔識(shí)別的關(guān)鍵特征提供了新視角,也為未來利用深度卷積神經(jīng)網(wǎng)絡(luò)探索面孔加工的內(nèi)在機(jī)制奠定了堅(jiān)實(shí)基礎(chǔ)。