在跟踪特定兴趣区域(ROIs)内动物的运动、位置和活动时,有多种商业产品可用于视频的半自动化行为分析,例如Ethovision®(Noldus,荷兰瓦赫宁根)和Any-Maze®(Stoelting,美国伊利诺伊州伍德代尔)。Ethovision因其用户友好的界面而被广泛用于行为分析。它通过识别动物与背景之间的颜色差异来估计动物身体的整体位置[5]。虽然这种系统具有创新性且被广泛采用,但它无法跟踪特定的身体部位,如鼻子,而这对于某些行为研究可能是必不可少的。此外,这类跟踪程序价格昂贵,并且在检测精细运动行为(如梳理、嗅探、跳跃和直立)时经常遇到困难。
解决这些挑战的一个潜在方法是视频录像的自动化分析。人工智能(AI)和机器学习(ML)的进步显著提高了跟踪动物多个身体部位和准确分类行为的能力。DeepLabCut(DLC)是一种越来越多地被用于动物行为研究的开源软件,它提供了一种基于深度学习的运动跟踪和无标记姿态估计方法[6]、[7]。该软件训练深度神经网络根据用户提供的从视频中提取的标注帧来预测姿势,随后生成跟踪数据(CSV/H5文件),捕捉各种身体部位的位置、方向和运动[8]。为了进一步细化行为分析,需要后处理工具将表示身体部位空间和时间坐标的数值数据分类为社交行为。在这方面,Simple Behavioral Analysis(SimBA)作为一个开源Python工具包,为行为分类提供了显著的改进[9]。SimBA提供了一个易于使用的界面,不需要编程知识,从而扩大了其研究人员的可访问性。DLC和SimBA都受益于活跃的社区支持和持续的功能开发,增强了它们的能力。然而,将它们整合到行为研究中需要大量的计算资源,并针对特定的实验设置进行优化。
由于ASD的特点是社交调查受损和重复性受限行为(RRBs)[10],准确量化这些行为不仅具有方法论意义,而且直接影响机制解释。特别是,社交能力的缺陷与感觉处理和电路层面的功能障碍密切相关,而RRBs则与运动模式调节和行为灵活性受损有关。因此,提高测量这些行为的分辨率可以超越简单的表型描述,实现更深入的机制推断。因此,我们测试了使用DLC结合SimBA中的ML分类器进行基于姿态的跟踪是否比传统的身体中心跟踪或手动评分在检测VPA模型的核心功能障碍方面具有更高的敏感性。最近的研究已经证明了DLC和SimBA在基于ML的啮齿动物行为分析中的有效性[11]、[12]。在本研究中,我们将这种方法扩展到产前VPA诱导的ASD模型,并直接将其与手动和商业方法进行比较,以评估敏感性和一致性。