Skip to the content.

Final:赛事前三名公布

排名 参赛队名 参赛单位 B榜UF1 B榜UAR B榜ACC
1 heyuhong 哈尔滨工业大学 0.40159 0.40077 0.41472
2 szfaceu 深圳大学 0.35336 0.36606 0.38127
3 l851769359 北京邮电大学 0.33556 0.35495 0.37793

New:A榜前六名暨B榜入围资格公布

提交ID 参赛者 A榜UF1 A榜UAR A榜ACC
72520 heyuhong 0.41227 0.42101 0.48734
70864 szfaceu 0.40666 0.40744 0.46414
72887 jessica 0.34618 0.36100 0.46203
71347 mucis01 0.33604 0.35581 0.41772
72758 l851769359 0.31559 0.32055 0.40928
72484 Must_Me 0.25753 0.25727 0.29958

比赛简介

微表情是一种微弱的、短暂的和无意识的面部情感表达,通常发生在有压力的情境下,伴随着个体尝试掩盖其内心真实想法时产生。由于微表情能有效地揭露个体的真实情感和意图,所以准确识别微表情在刑侦审讯、临床心理、商业洽淡等多个领域都有重要的应用价值。微表情自动识别旨在让机器有足够的智能,感知人脸视频序列的微表情运动特征,并理解对应的隐藏情绪。近年来,微表情识别研究已经吸引了大量情感计算研究者们的关注,但微表情运动微弱、短暂且局部,以及缺乏大规模训练样本,严重制约了微表情识别及应用的发展。

本挑战赛使用目前规模最大的DFME动态人脸微表情数据集的部分数据作为训练及测试数据,旨在促进在数据更充分条件下的微表情识别方法的探索,进而推进本领域研究的交流和发展。本次挑战赛的任务主要是进行微表情情感标签分类识别,即对给定的微表情视频样本,参赛者需要设计识别算法模型以预测其对应的七种情感类别。

特别说明的是,为了保证比较的公平性和客观性,本次比赛采用A/B榜的竞赛方法,A榜成绩决定参赛队伍能否进入决赛B榜(取A榜前6),最终比赛排名由B榜决定。

日程安排

时间节点 相关事宜
2024年5月5日 8:00 AM(GMT+08:00) 任务发布与报名启动,
2024年5月15日 8:00 AM(GMT+08:00) 训练数据发布
2024年5月30日 8:00 AM(GMT+08:00) A榜测试集数据发布,A榜提交入口发布
2024年6月30日 8:00 AM(GMT+08:00) A榜提交截止(报名结束)
2024年7月1日 8:00 AM(GMT+08:00) A榜成绩公布 ;B榜测试数据发布;B榜提交入口发布(3次提交机会)
2024年7月5日 8:00 AM(GMT+08:00) B榜提交截止
2024年7月8日 8:00 AM(GMT+08:00) 2-3页技术报告提交
2024年7月10日 10:00 AM(GMT+08:00) B榜成绩及最终比赛结果公布
2024年7月20日 10:00 AM(GMT+08:00) CCAC2024大会召开及颁奖典礼

注意事项

比赛任务

本次比赛的任务为七分类人脸微表情识别,参赛者需要设计识别方法,对测试集中的每个微表情样本,从高兴、愤怒、鄙视、厌恶、恐惧、伤心惊讶七种类别中选择一种情感标签进行预测。如果预测标签与数据集中的真实标签一致则视为该样本识别正确,否则为识别错误。比赛将根据识别准确程度对参赛者提交的方法进行排名,识别准确度具体评价指标参见第四节。

比赛数据说明

数据获取

DFME数据集介绍

DFME数据集是目前数量规模最大、采集帧率最高的动态自发微表情数据集,共有来自671名被试(656名实际有效)的7526个微表情视频样本,包含了七种情感类别:高兴(happiness)、愤怒(anger)、鄙视(contempt)、厌恶(disgust)、恐惧(fear)、伤心(sadness)和惊讶(surprise)。采集帧率覆盖了200、300或500fps。本次比赛使用DFME中259名被试2629个微表情视频样本。此外还提供了起始帧、峰值帧及结束帧的标注以及AU标签的标注。

数据划分

本次比赛使用DFME中259名被试的2629个微表情视频样本。其中176名被试的1856个样本作为训练集,这部分数据及其关键帧标签和情绪类别标签在比赛开始时将提供给所有参赛者;剩下的样本将不重复划分为A榜和B榜两部分测试集,为了保证比赛的公平性,测试集在比赛评测阶段前将对参赛者不可见。评测阶段时,仅向参赛者提供测试集样本及样本名及帧率信息等信息,但不提供情绪类别标签,全部数据及标签将在后续比赛结束后向申请者提供。为减少被试身份信息的影响,这三部分数据的被试互不重叠

注意事项

评估协议

评价指标

本比赛评估指标同DFME数据集论文所示,使用了非加权F1分数(UF1)、非加权平均召回率(UAR)及准确率(ACC)指标,其中以UF1作为排名依据。 为了方便说明,记$K=7$为样本类别总数,$N_i$表示第$i$类的样本总数,$TP_i,FP_i,FN_i$分别表示第$i$类样本的预测结果中真正例、假正例和假负例的样本数量。

非加权F1分数(UF1)计算如下:

\[UF1=\frac{1}{K} \sum_{i=1}^K \frac{2 \cdot TP_i}{2 \cdot TP_i+FP_i+FN_i}\]

非加权平均召回率(UAR)计算如下:

\[UAR=\frac{1}{K} \sum_{i=1}^K \frac{TP_i}{N_i}\]

准确率(ACC)计算如下:

\[ACC=\frac{\sum_{i=1}^{K} TP_i}{\sum_{i=1}^{K} N_i}\]

评测方式

评测阶段中,参赛者需要在测试集上测试自己提出的方法,并向主办方提供预测的情感标签,具体格式参见结果提交一节相关内容。之后主办方将根据参赛者的识别结果计算评价指标并给出最终排名。

结果提交

参赛规则

对以下情况,主办方保留取消参赛资格的权利: