1 引言
情绪识别挑战在自闭症谱系(以下简称“自闭症”)群体中是一个持续争论的话题。自闭症是一种神经发育状况,其特征是社会沟通和互动方面的差异。虽然不被视为诊断特征,但情绪识别三十多年来一直是自闭症研究的焦点,因为人们认为这方面的挑战可能导致其社会困难。迄今为止,大多数文献旨在确定自闭症与非自闭症个体在情绪识别方面是否存在差异,但研究结果不一。本文关注一个探索不足的领域:研究表明,从身体运动中识别情绪受到个人自身身体表达情绪方式的影响——我们将此扩展到面部表情领域。我们首先询问自闭症人士在表达情绪时是否以不同的方式移动面部(与非自闭症人士相比);其次,我们质疑个人自身面部表情的产生是否与他人情绪的识别有关。
越来越多的研究表明,我们移动自己身体的方式会影响我们标记他人身体运动的方式。例如,有证据表明快速运动往往表示愤怒,而慢速运动表示悲伤。研究表明,通常走路快的人倾向于将他人的快速运动感知为不那么强烈的愤怒,而慢速运动者则感知快速运动为强烈的愤怒。也就是说,人们以自己典型的行走速度作为判断他人运动的基准,强调了身体运动产生与感知之间的联系。
大量证据表明,自闭症个体倾向于以不同于非自闭症个体的方式移动身体,并且产生的差异可能与感知差异有关。自闭症个体通常表现出更急促的全身、上肢和头部运动。重要的是,研究表明,在自闭症样本中,身体运动更急促与生物运动感知的改变有关。因此,关于身体运动,产生的差异已与自闭症人群的感知差异联系起来。
初步证据表明,自闭症和非自闭症人士产生的面部表情存在差异。大多数证据来自非自闭症观察者对自闭症和非自闭症面部表情的准确性、质量、一般外观和/或强度进行评级的研究。自闭症表情通常被认为不太准确(即社会一致性较低)、质量较低,并且外观“非典型”,被(非自闭症)观察者评为奇怪、尴尬或机械。研究也获得了“强度”评级,但结果好坏参半,有些报告自闭症表情被认为更强烈,有些则报告强度较低。这些研究表明,自闭症和非自闭症人士产生的面部表情存在某些不同。如果确实如此,那么感知差异可能与情绪性面部表情产生的差异有关。
少数研究采用了更客观的测量方法来量化自闭症和非自闭症人士产生的面部表情的差异方式,但尚未出现清晰的图景。虽然一些采用面部肌电图(fEMG)的研究报告自闭症患者面部肌肉激活减少,但大多数证据与主观评级相矛盾,表明组间面部肌肉激活水平没有差异。值得注意的是,这种效应的缺乏可能是由于fEMG对面部肌肉激活差异不敏感所致。然而,虽然总体面部肌肉激活水平在组间可能没有差异,但其他采用fEMG的研究表明,自闭症儿童在积极和消极以及快乐、愤怒和恐惧面部表情方面通常表现出比非自闭症同龄人更少分化的激活模式。这表明,即使平均激活水平相似,自闭症个体在不同情绪间可能产生更多重叠的面部表情。
一个重要的考虑因素是面部形态学。近年来,一些研究表明自闭症和非自闭症个体之间可能存在细微的面部形态学差异。因此,表情主观外观的差异可能反映了整体面部形态(面部的形状和结构)的差异,而非面部运动本身的差异。这种面部形态学的差异可能支撑了对自闭症表情怪异或夸张的主观评级,因为不同特征的外观有助于面部表情的判断。因此,任何比较自闭症和非自闭症面部表情的研究都应旨在尽量减少形态差异的混淆影响。
另一个问题是大多数先前研究未考虑述情障碍。述情障碍是一种亚临床状况,在自闭症人群中非常普遍,其特征是难以识别和描述自己的情绪。流行理论认为,自闭症个体的情绪处理困难是由共存的述情障碍引起的,因此不是自闭症本身的特征。迄今为止,支持这一假设的大部分证据来自关注情绪识别的研究。然而,述情障碍与本体感觉差异有关,而本体感觉对于身体和面部的准确运动控制至关重要。因此,述情障碍可能与面部表情产生的差异有关。事实上,有初步支持这一观点:研究发现,述情障碍特征而非自闭症特征,与自闭症和非自闭症儿童自发性面部表情的表达性降低相关。因此,任何比较自闭症和非自闭症个体情绪识别和产生的研究都应模拟述情障碍的贡献,以避免错误地将差异归因于自闭症。
总之,识别他人面部表情能力的差异可能与产生相同表情的差异有关。然而,识别自闭症和非自闭症人之间这种产生差异的进展受到方法学限制的阻碍:研究通常使用低灵敏度方法,未能考虑面部形态学,并且未模拟述情障碍的贡献。这些限制可能导致文献中的混合发现,特别是对于自愿做出的表情,关于强度和其他因素的结果高度不一致。要取得进展,需要解决这些因素的研究。
在考察产生与感知之间关系时,一个重要的问题是个人自身情绪表达的哪些特征可能影响对他人情绪的感知?身体运动文献指出了相对一般的运动方面:运动更急促的个体在标记他人运动为自然时表现出更极端的差异。推而广之,人们可能预测更急促的面部表情与降低的情绪识别准确性有关。
然而,关于情绪处理其他领域的并行文献则关注更具体的特征。该文献报告称,那些具有更精确和/或分化的情绪体验或视觉情绪表征的人往往更善于识别他人的情绪。实际上,该文献根源于信号检测理论,该理论认为不精确(即宽)和不 distinct(即重叠)的“信号”分布和“噪声”分布提供了区分“信号”和“噪声”的低灵敏度。在情绪表达领域,人们可能预测,一个其愤怒表情不精确(即不一致)且与悲伤表情无法区分(即未分化)的个体将难以识别他人的愤怒和悲伤表情——也许是因为难以确定传入的面部表情是否匹配其自身的愤怒或悲伤信号。一项研究为此观点提供了初步支持:发现接受过产生情绪面部表情训练的参与者——使用奖励正确激活面部动作单元的自动化反馈——在独立任务上表现出比主动对照组更大的情绪识别改进。值得注意的是,那些在识别情绪方面进步最大的人也是在训练过程中自身面部表情分化程度提高最大的人。这为产生 distinct 情绪表达的能力与识别他人这些情绪的能力之间的联系提供了证据。它也表明了信号检测理论——传统上应用于感知辨别——向表达产生领域的潜在扩展。然而,需要进一步研究以确定自身情绪面部表情的精确度和分化是否都有助于准确识别他人。
1.1 当前研究
在当前研究中,我们在控制面部形态学和述情障碍后,比较了自闭症和年龄、性别、智商匹配的非自闭症成人的愤怒、快乐和悲伤的故意做出的表情。这里,我们特别关注自愿做出的表情——这在日常生活中无处不在,是为了故意向互动伙伴传达一个人的思想、意图和情绪而产生的——以便更好地描述自闭症文献中的这种表情类型,那里的发现好坏参半。我们包括两种条件:(1)提示条件,参与者根据一系列音频提示做出愤怒、快乐和悲伤的面部表情;(2)口语条件,参与者在说一个标准化句子时做出表情。包含这两种条件是出于以下事实:在日常生活中,我们既孤立地产生表情(没有其他并发运动,例如在别人对你说话时礼貌地微笑),也在进行其他运动如说话时产生表情(例如,在与他人交谈时礼貌地微笑)。尽管存在这两种类型的表情,但迄今为止,大多数文献仅关注比较没有其他运动干扰的“孤立”故意表情。因此,目前尚不清楚当同时进行其他形式的运动(例如言语)时,自闭症和非自闭症个体产生的面部表情是否存在差异。
这里,为了记录愤怒、快乐和悲伤的表情,我们采用了面部动作捕捉。记录被标准化到一个共同的虚拟面孔以最小化任何形态学差异的影响,并计算了代表(a)激活程度和(b)运动急促度的指数,涉及许多面部标志点随时间的变化。我们考察了自闭症和述情障碍对愤怒、快乐和悲伤表达的贡献。最后,我们探讨了参与者自身面部运动的特征是否有助于他们识别他人动态情绪表情的能力。
1.2 假设
基于研究发现自闭症患者往往表现出更急促的全身、上肢和头部运动,我们预测自闭症参与者的面部表情明显比非自闭症对照组更急促。关于面部标志点激活的大小,我们没有做出正式预测,因为这方面的证据非常混杂,并且可能被述情障碍混淆。最后,根据信号检测理论和先前发现,我们预测参与者自身产生的精确度和分化将有助于识别他人的面部表情。
2 方法
本研究得到了伯明翰大学科学、技术、工程和数学(STEM)伦理委员会的批准,并按照修订后的赫尔辛基宣言的原则进行。所有参与者在参与前都提供了知情同意。
2.1 参与者
从当地自闭症研究数据库和大学邮件列表招募了25名自闭症和26名年龄、性别和智商匹配的非自闭症参与者。我们的样本量是通过先验功效计算确定的。自闭症参与者此前均从独立临床医生处获得了自闭症谱系障碍的临床诊断。自闭症参与者的自闭症商数(AQ)得分显著高于非自闭症参与者。参与者的种族在支持信息A中报告。
2.2 社区参与
根据参与式研究指南,自闭症社区成员为我们的研究提供了反馈,这导致在数据收集之前进行了若干更改。例如,社区成员建议将每种情绪、每种条件的16次试验分成两个较短的区块以减少疲劳。他们还建议参与者先完成一种表达条件的所有情绪试验,然后再进行另一种,以尽量减少重复使用相同面部肌肉的劳损。此外,他们建议测试设置应适应站立和坐姿记录,以支持有身体残疾的参与者。他们还建议提前告知参与者如果需要将需要摘掉眼镜和扎起长发——允许个人以最舒适的方式准备,例如选择戴隐形眼镜或自带发带。其他几个建议也被考虑并帮助形成了更易接近和包容的研究设计。我们仔细考虑了这些反馈并将建议纳入研究设计。
2.3 程序
参与者首先完成了评估自闭症特质、述情障碍和情绪识别的在线问卷和任务。在实验室中,参与者完成了我们的FaceMap范式,然后完成了韦氏简版智力量表(WASI-II)的两个分测验。所有数据在2022年1月至11月期间收集。
2.3.1 自闭症商数(AQ)
通过自闭症商数量表评估自闭症特质水平。这份自陈问卷的分数范围从0到50,分数越高代表自闭症特征水平越高。
2.3.2 多伦多述情障碍量表(TAS)
通过20项的多伦多述情障碍量表测量述情障碍特质水平。TAS包含20个项目,采用五点李克特量表评分(从1“非常不同意”到5“非常同意”)。TAS总分范围从20到100,分数越高表示述情障碍水平越高。
2.3.3 PLF情绪识别任务
使用PLF情绪识别任务评估参与者的情绪识别表现。在此任务中,参与者观看无声的、动态的面部光点显示(PLF),这些显示描绘了演员在表达愤怒、快乐或悲伤时说话。音频被有意移除,以确保参与者仅依赖面部运动——而非声音线索——来解读情绪,这对于分离情绪表达的视觉成分并检查其与表达产生的关系至关重要。在每个试验中,观看每个PLF视频后,参与者分别在三个视觉模拟量表上评定演员看起来有多愤怒、快乐和悲伤,范围从0(“一点也不愤怒/快乐/悲伤”)到10(“非常愤怒/快乐/悲伤”)。参与者完成三个练习试验,然后是108个随机顺序的实验试验,分为三个区块。区块之间提供休息。情绪识别准确性使用基于分化的度量计算:对于每个试验,从正确情绪评分中减去两个错误情绪评分的平均值。该指标不仅反映了目标情绪是否被识别,还反映了其与竞争替代方案区分的清晰度。
2.3.4 FaceMap范式
在开始FaceMap范式之前,指示参与者摘掉任何眼镜并扎起长发以避免对面部造成遮挡。受先前研究启发,我们采用FaceMap范式记录两种条件下的面部运动:口语条件和提示条件。
在口语条件下,要求参与者在显示目标情绪(愤怒、快乐或悲伤)的同时说一个标准化句子(“我的名字是Jo,我是一名科学家”)。这确保任何与言语相关的面部运动在个体和情绪间保持恒定,从而能够在存在发音运动的情况下进行有意义的情绪表达比较。在录音开始前,参与者收到指示想象自己处于某种情绪状态,并在移动面部以显示该情绪的面部表情时说一个句子。要求他们尽可能强烈地想象正在经历这种情绪,然后尽可能清晰地做出这种情绪的表情。并告知程序步骤。为了帮助理解任务,向参与者展示了演员以中性或惊讶方式说不同句子(“今天早餐我吃了麦片”)的短视频示例——这些情绪未在实验试验中使用。参与者然后完成每种情绪的两次练习试验(两次愤怒、两次快乐、两次悲伤)。随后,他们完成两个实验区块,每个区块参与者做出八次愤怒、八次快乐和八次悲伤表情(每种情绪总计16次表情),顺序在参与者间平衡。
在提示条件下,要求参与者根据定时的听觉提示序列做出面部表情。他们收到指示想象自己处于某种情绪状态,并以不同方式做出面部表情。要求他们尽可能强烈地想象正在经历这种情绪,然后尽可能清晰地做出这种情绪的表情。并告知程序步骤。该序列遵循固定的时间结构:提示音以3秒间隔间隔,导致每个试验总记录持续时间为9秒。参与者因此与第一个提示音同步做出中性表情,在第二个较高音调提示音时从中性表情移动到目标面部表情,在第三个较低音调提示音时返回中性表情,录音在第四个提示音后结束。
为了帮助理解任务,向参与者展示了演员使用相同时间序列做出惊讶和厌恶表情的示例视频——这些情绪未在实验试验中使用。参与者然后完成三种情绪中每种情绪的两次练习试验(两次愤怒、两次快乐、两次悲伤)。他们随后完成两个实验区块,每个区块包含每种情绪(愤怒、快乐、悲伤)八次试验,在参与者间平衡——每种情绪总计16次试验。与口语条件一样,要求参与者想象尽可能强烈地经历目标情绪,然后告知实验员当他们感觉准备好时。实验员然后说“录音即将开始”并激活提示音来启动试验。
为了便于记录,参与者站在(或坐在)安装在三脚架上带环形灯的iPhone 12前30厘米处。使用Rokoko面部捕捉工具记录面部表情。Rokoko采用Apple ARKit技术,该技术已被验证用于面部运动跟踪,并被推荐用于分析有运动相关状况(例如自闭症)者的面部运动。ARKit技术使用原深感摄像头投射超过30,000个不可见点以创建面部的红外图像表示,然后可用于提取52个面部混合形状的激活水平,以及特定标志点的X、Y和Z坐标。在发布前,该技术在不同年龄和种族中进行了广泛测试,确保其适用于跟踪不同面部形态个体的面部运动。
2.3.5 WASI-II
通过WASI-II的两个分测验版本评估参与者的智商。两个分测验形式包括词汇和矩阵推理评估。WASI的分数范围从70到160,分数越高代表智力越高。
2.3.6 数据处理与提取
如前所述,初步文献表明自闭症和非自闭症个体之间可能存在面部形态学差异,因此在比较情绪表达时需控制此类差异。为了解决这个问题,在数据提取之前,将面部表情记录重定向到一个共同的虚拟面孔上。为此,我们首先通过使用Apple的开源神经网络算法分析红外图,提取所有时间点52个面部动作“混合形状”的激活。这些混合形状类似于面部动作单元(例如,左眼眯起、眉毛内侧上扬、左嘴角微笑),激活分数范围从零(无激活)到一(峰值激活)。为了统计分析,我们直接使用激活数据,但排除了八个与凝视相关的混合形状,剩下44个混合形状进行分析。这些数据在所有记录的时间点——口语条件382帧,提示条件540帧——针对所有参与者(51人)的愤怒、快乐和悲伤表情(96种)进行提取。
然后,我们将提取的激活值应用到Blender中的统一3D面部模型上,确保所有面部运动在相同的面部结构上呈现。接着,受OpenFace工具包启发,我们在虚拟人脸上定义了68个面部标志点,并提取了它们随时间的X、Y和Z坐标。此过程确保所有表情都映射到相同的面部几何形状和尺度上,消除了个体面部结构对提取的运动特征的影响。通过将表情重定向到公共模板,面部标志点的位移——以及因此这些面部标志点的运动急动度——在自闭症和非自闭症参与者之间变得直接可比,反映了表达动力学的真实差异而非底层形态变异。提取这些坐标后,我们计算了每个面部标志点原始坐标的三阶导数作为绝对急动度,针对记录中所有时间点(口语条件378帧,提示条件536帧)。在我们的实现中,这涉及按时间顺序从坐标数据计算运动(位置变化)、速度(运动变化)、加速度(速度变化),然后计算急动度(加速度变化)。每个连续差分使序列缩短一帧,因此急动度在N减四个时间点上定义;相应地,每个试验的前四帧不产生有效的急动度值。这里,急动度捕捉运动的平滑度或突然性,值越高表示加速度变化越快,值越低反映过渡越平滑。
通过借鉴OpenFace同时使用Rokoko面部捕捉工具,我们能够:(1)实现与先前使用OpenFace的研究的比较;(2)使用三维运动数据进行分析,而非OpenFace通常分析的二维数据;(3)克服先前研究中已识别的OpenFace局限性——特别是准确跟踪面部标志点(即估计面部点坐标)和可靠估计某些面部动作单元激活(即量化肌肉激活程度)方面的困难。
总之,这里我们有两种形式的数据捕捉面部表情的不同方面。混合形状数据通过范围从0(无激活)到1(最大激活)的值量化44个特定面部肌肉群(例如,眉毛内侧上扬、左嘴角微笑)随时间的激活。标志点数据则相反,提供68个面部固定点(例如眼角或嘴角)随时间的X、Y和Z坐标。这些坐标用于计算急动度(加速度变化),捕捉面部运动随时间的平滑度。因此,混合形状数据描述发生了什么运动,而标志点数据描述这些运动随时间如何展开。
2.3.7 重采样口语记录
使用MATLAB中的resample()函数对口语记录进行重采样,以确保统计比较的长度均匀。该方法使用插值生成均匀间隔的时间序列,在调整其长度的同时保留原始信号的总体形状和时间结构。重采样是时间序列分析中广泛使用的有效方法,并已成功应用于涉及运动学数据的先前研究。值得注意的是,在重采样之前,自闭症和非自闭症参与者在所有三种情绪的口语表达持续时间上没有差异。提示条件不需要重采样,因为所有记录长度已经相等。
2.3.8 分数计算
如前所述,我们理论认为急动度或激活的平均水平,和/或个人自身面部表情的精确度(即相同情绪表达的一致性)和分化度(即不同情绪表达间的区分度)可能有助于识别他人表情的能力。因此,我们计算了提示和口语表达中这两方面的指数,包括急动度和激活。
首先,为了获得提示和口语表达的整体急动度和激活水平指数,我们计算了每种条件下跨时间点、标志点、重复次数和情绪的(a)急动度和(b)激活的平均值。
精确度分数衡量一个人在不同重复次数的同一情绪表达的一致性。这些分数分四步计算,分别针对每个参与者和每种情绪。首先,对于68个标志点(急动度)或44个混合形状(激活)中的每一个,我们计算每次记录(即16次重复中的每一次)内所有时间点的平均值。其次,我们计算这些平均值在16次重复中的标准差,得到每个标志点或混合形状急动度或激活的变异性度量。第三,我们计算所有标志点或混合形状的这些变异性分数的平均值,产生每个情绪的单一整体变异性分数。最后,我们将变异性分数乘以-1,使得更高的值表示更高的精确度(即重复间变异性更低)。这产生每个情绪(愤怒、快乐、悲伤)的一个精确度分数,针对急动度和激活,然后跨情绪平均以产生提示和口语条件的整体精确度分数。更高的精确度分数表示参与者以更精确(或一致)的方式跨重复表达情绪。
分化分数量化了一个人的一种情绪面部表情与另一种情绪面部表情的差异程度。这些分数分三步计算:(1)我们针对每个标志点/混合形状跨重复和时间点平均急动度和激活;(2)我们计算情绪对(愤怒-快乐、愤怒-悲伤、快乐-悲伤)之间在每个标志点的急动度和激活的绝对差异;(3)我们跨标志点平均这些差异以获得每个情绪对的单一分化分数。最后,我们跨情绪对平均以获得提示和口语表达在急动度和激活方面的整体平均分化分数(例如,提示急动度分化、提示激活分化、口语急动度分化、口语激活分化)。
2.3.9 数据分析
我们比较自闭症和非自闭症个体产生的面部表情的分析使用MATLAB(2022b版)进行。评估情绪产生因素对情绪识别贡献的随机森林和线性回归分析使用R Studio(2021.09.2版)进行。贝叶斯分析在JASP(0.17.2.1版)中进行。热图使用Blender(3.6.5版)生成。对于所有比较自闭症和非自闭症面部表情的置换检验分析,我们使用0.05的alpha值确定统计显著性。对于所有贝叶斯分析,我们遵循JASP中使用的分类方案,其中BF10值在1到3之间反映弱证据,3到10之间反映中等证据,大于10反映强证据,大于100反映极端证据支持实验假设。
3 结果
为了描述自闭症和述情障碍对随时间产生的愤怒、快乐和悲伤面部表情的贡献,我们渲染了热图。
3.1 提示条件数据分析
3.1.1 提示表情峰值处的激活
首先,我们旨在确定在特定混合形状上,愤怒、快乐和悲伤表情峰值表达期间的激活是否存在组间差异。因此,我们针对每种情绪分别提取了表情中点(时间点270)的激活数据,针对每个混合形状、参与者和重复。接着,针对44个混合形状中的每一个,我们进行了激活作为组(自闭症、非自闭症)和TAS分数函数的线性混合效应模型(LMMs),以受试者和重复作为随机截距,针对每种情绪。我们使用线性混合效应模型是因为它们考虑了嵌套、重复测量数据中的固定和随机效应,防止低估方差和膨胀I类错误率,并提供更准确、可推广的估计。在这些线性混合模型中,如果我们发现组的显著主效应,这将表明在特定混合形状上,即使在控制述情障碍后,自闭症和非自闭症个体之间的激活也存在显著差异。
为了解释多重比较,我们实施了基于置换的方法。简而言之,对于每次置换,我们(1)随机将参与者的激活数据重新分配给自闭症或非自闭症组,以及(2)重新运行线性混合效应模型以为组和述情障碍效应生成零分布的F值。然后将 shuffled F值排序,并且只有当真实数据中的效应超过此零分布的95百分位数时才认为显著。这里,置换测试允许我们在保留比传统校正(如Bonferroni)更大统计功效的同时控制家族误差率,后者在具有大量空间和/或时间单位(例如神经影像)的情况下通常过于严格。
该分析发现,在愤怒[4.55%的混合形状]、快乐[45.55%的混合形状]和悲伤[2.27%的混合形状]表情中,特定混合形状的激活存在显著的组间差异,即使在控制述情障碍后也是如此。当做愤怒表情时,自闭症参与者左右眉毛下垂混合形状的激活显著较低——这些面部特征通常被认为表示愤怒。述情障碍是左右睁大眼睛和左嘴角混合形状激活的显著负预测因子。对于快乐,45.55%的混合形状存在显著激活差异;自闭症参与者左右眯眼、嘴角微笑、酒窝、嘴角下压、嘴角上扬、眉毛下垂和脸颊眯眼混合形状的激活显著较低,以及上嘴角耸肩和左嘴角拉伸混合形状。相反,自闭症参与者在上嘴角卷曲、嘴巴闭合、嘴巴漏斗状和脸颊鼓起混合形状处显示出更高的激活。因此,自闭症参与者显示出许多被认为表示快乐的混合形状(例如嘴角微笑、脸颊眯眼)的激活较低。述情障碍是下巴张开混合形状激活的显著正预测因子,和下嘴角耸肩混合形状的显著负预测因子。最后,对于悲伤,自闭症参与者在下巴前伸混合形状处显示出显著较低的激活。述情障碍是左右眨眼和右嘴角混合形状激活的显著正预测因子。
3.1.2 提示表情整个时间过程中的激活
接下来,我们旨在确定在提示条件中,特定混合形状和特定时间点,愤怒、快乐和悲伤面部表情的激活是否存在组间差异。为此,针对44个混合形状中的每一个,在每个时间点,我们进行了激活作为组(自闭症、非自闭症)和TAS分数函数的线性混合效应模型,以受试者和重复作为随机截距,针对每种情绪。在这些模型中,如果我们发现组的显著主效应,这将表明在特定混合形状、特定时间点,在控制述情障碍后,自闭症和非自闭症个体之间的激活存在显著差异。如上所述,我们进行了置换测试以确定哪些效应具有统计显著性。
该分析发现,在特定混合形状和特定时间点,愤怒、快乐和悲伤面部表情的激活存在显著的组间差异。对于愤怒,自闭症参与者在保持愤怒表情期间,左右眉毛下垂混合形状在许多时间点显示出显著较低的激活。相反,自闭症参与者在此期间左右嘴角皱眉和上嘴角混合形状显示出显著较高的激活。因此,当产生提示的愤怒表情时,自闭症参与者可能更依赖嘴巴,而非眉毛,来表示愤怒。在表情之前和之后,自闭症参与者在噘嘴和左右眨眼混合形状处也显示出更高的激活。述情障碍是保持愤怒表情期间左右睁大眼睛和眯眼混合形状激活的显著负预测因子。
对于快乐,自闭症参与者在保持表情期间,左右嘴角微笑、酒窝、上嘴角耸肩、嘴角下压、嘴角上扬、脸颊眯眼、眉毛下垂和眯眼混合形状在特定时间点显示出显著较低的激活。相反,自闭症参与者在此期间在嘴巴闭合、嘴巴漏斗状、上嘴角卷曲和脸颊鼓起混合形状处显示出显著较高的激活。这些结果表明自闭症和非自闭症参与者在表达快乐时表现出不同的嘴部和脸颊配置。述情障碍是峰值表达时左右睁大眼睛、嘴巴按压和上下嘴角耸肩混合形状激活的显著负预测因子。相反,述情障碍是开始运动进入快乐表情后立即的时间点,左右嘴角下压、嘴角拉伸和嘴角上扬混合形状激活的显著正预测因子。述情障碍也是保持表情期间许多时间点下巴张开混合形状的显著预测因子。
最后,对于悲伤,自闭症参与者在整个表情期间的许多时间点,左右嘴角上扬和眉毛外侧上扬混合形状以及左下巴混合形状显示出显著较高的激活。同时,自闭症参与者在整个表情期间上下嘴角卷曲和下嘴角耸肩混合形状显示出显著较低的激活。最后,自闭症参与者在表情开始附近左右眯眼和嘴角皱眉混合形状显示出较低的激活。述情障碍是整个表情期间上下嘴角卷曲和嘴角耸肩混合形状,以及左右嘴角上扬和酒窝混合形状在许多时间点激活的显著正预测因子。述情障碍是表情开始和结束时左右眯眼混合形状,以及表情开始附近噘嘴和嘴巴漏斗状混合形状激活的显著负预测因子。
3.1.3 提示表情整个时间过程平均的急动度
接下来,我们旨在确定组间在特定面部标志点处,提示的愤怒、快乐和悲伤表情的急动度是否存在差异。基于先前研究发现自闭症个体表现出更急促的身体运动,我们针对每种情绪分别,对每个标志点、参与者和重复,计算了记录中所有时间点的急动度平均值。接着,针对68个标志点中的每一个,我们进行了急动度作为组(自闭症、非自闭症)和TAS分数函数的线性混合效应模型,以受试者和重复作为随机截距,针对每种情绪。如前所述,我们进行了置换测试以解释多重比较。
该分析显示,在面部特定区域,愤怒和快乐(而非悲伤)表情的急动度存在显著的组间差异(注意最大数量的显著差异出现在愤怒=32.35%的标志点;快乐=4.41%的标志点)。当做出愤怒表情时,即使在控制述情障碍后,自闭症参与者在所有嘴部面部标志点[平均显著F=4.19]和特定鼻子标志点[22.2%鼻子标志点;平均显著F=3.71]处表现出显著更高的急动度。另一方面,述情障碍是特定眉毛标志点[10%眉毛标志点;平均显著F=-3.87]的显著负预测因子:述情障碍较高者在表示愤怒时在特定眉毛标志点处表现出较低的急动度。相反,对于快乐,自闭症参与者在三分之一的眉毛标志点(33.33%眉毛标志点;平均显著F=-7.62)处显示出显著较低的急动度。自闭症参与者在眉毛区域显示出显著较低的急动度可能是由于左右“眉毛下垂”混合形状的激活较低,如我们先前分析所示。述情障碍不是快乐表情中任何标志点急动度的显著预测因子。最后,悲伤表情在任何面部标志点处均无显著的组间急动度差异。然而,述情障碍是特定眉毛[40%眉毛标志点;平均显著F=-4.56]和下巴[5.88%下巴标志点;F=-3.76]标志点急动度的显著负预测因子:述情障碍较高者在表示悲伤时在特定眉毛标志点处表现出较低的急动度。
<h>3.2