2022年3月23日至2022年6月25日,CCF A类国际顶级会议-国际多媒体会议(ACM International Conference on Multimedia,以下简称ACM MM 2022)主办的第五届面部微表情大赛(Facial Micro-expression Grand Challenge 2022,以下简称MEGC 2022)暨面部微表情国际研讨会(Facial Micro-expression Workshop,以下简称 FME’22)举行了系列挑战赛,并于近日公布了排名结果。
ACM Multimedia 2022 国际会议
ACM MM是计算机图形学与多媒体领域的国际顶级会议,也是中国计算机学会(CCF)推荐的A类会议之一,由全球最大、影响力最广的计算机领域专业性学术组织国际计算机协会ACM(Association for Computing Machinery)发起。ACM MM自举办以来,致力于为全世界多媒体研究领域的优秀学者提供相互交流的平台,吸引了学术界与科技行业顶尖企业参与,共享最新研究成果并探讨前沿发展趋势,被誉为多媒体技术领域“奥运级别”的顶级盛会。
ACM MM FME'22 & MEGC 2022
面部微表情是个人在遇到某种情绪但试图抑制面部表情时自发产生的面部非自愿运动,最有可能发生在高风险的环境中。微表情的自动化计算分析是面部研究的一个新兴领域,2014年起引起人们的浓厚兴趣。MEGC 2022和FME’22旨在促进研究人员和学者之间以及计算机视觉和心理学研究领域之间的互动。
MEGC 2022(https://megc2022.github.io/challenge.html)设置了两大赛道。具体包括赛道1:微表情生成赛道(Micro-expression Generation Task),和赛道2:微表情与宏表情时序定位赛道(Micro and Macro-expression Spotting Task)。经过3个多月的激烈角逐,由语音及语言信息处理国家研究中心多模态研究室於俊老师带领的中国科大参赛团队(以下简称USTC-IAT-United团队)取得了优异成绩,在全部两个赛道中均斩获冠军(网址:https://megc2022.grand-challenge.org/evaluation/challenge/leaderboard)。团队工作由於俊老师指导研究生谢国辰、蔡忠鹏、贺鹏等人共同完成。
ACM MM MEGC 2022 - Micro-expression Generation Task
ACM MM MEGC 2022 - Micro and Macro-expression Spotting Task
USTC-IAT-United团队针对不同的赛道分别提出了特色解决方案。
对于赛道一的人脸微表情生成任务,团队将其抽象为一类特殊的动作迁移任务。首先,对数据进行预处理以去除与微表情发生区域无关的背景和部分人脸区域。然后,采用关键点薄板样条插值方法来刻画人脸部的整体运动,有效解决了各器官之间运动不连续难题。同时,在训练中引入人脸解析网络,增加了对于眼睛区域合成内容的监督,有效缓解了眼镜区域在表情合成的过程中易出现异常形变的影响。经过专家主观评测,所提方案的生成结果在绝对质量评价和相对质量评价中分别获得1.975分和1.0分,均为所有参赛队伍中最高。
对于赛道二的人脸宏表情与微表情时序定位任务,团队首先将每个视频片段的人脸做了裁剪和对齐以排除部分无关因素的干扰。然后针对每张人脸,选择眉毛,鼻翼,嘴巴作为感兴趣区域。考虑到微表情持续时间短、强度弱的特点,通过提取感兴趣区域在视频片段中的光流特征来刻画人脸在产生微表情时发生的面部肌肉运动。在此基础上,采用低通滤波、经验模式分解去噪的方式对光流特征进一步处理,并且设计了一种滑窗方法来精确定位每个视频的表情片段。最后根据IoU融合检测出来的表情片段。所提方案在SAMM和CAS(ME)3测试集上分别达到了0.3846和0.3333的F1 Score,从而以较Baseline的0.1351大幅提高0.2163的总成绩0.3514获得第一。
本次大赛吸引了全球包括平安科技、中国科学技术大学、东南大学、中科院自动化所、中科院心理研究所、哈尔滨工业大学、曼彻斯特城市大学、马来西亚大学等来自200余国内外著名互联网公司、高校、科研院所参与。
上述工作得到了国家自然科学基金联合基金、安徽省重点研发计划、中国科大探索类基金、中国人工智能学会华为学术奖励基金等项目的支持。