大规模多模态神经影像数据集NOD:融合fMRI、MEG与EEG揭示自然场景中物体识别的时空动态机制

时间:2025年5月24日
来源:Scientific Data

编辑推荐:

为解决自然场景物体识别研究中时空分辨率难以兼顾的问题,北京师范大学团队构建了首个同步包含fMRI、MEG和EEG的多模态数据集NOD,采集30名受试者对57,000张自然图像的神经响应。该数据集通过融合高空间分辨率(fMRI)与毫秒级时间分辨率(M/EEG),为解析视觉皮层表征动态提供了全新平台,相关成果发表于《Scientific Data》。

广告
   X   

论文解读

人类大脑如何在瞬息万变的自然环境中快速识别物体?这个看似简单的行为背后,隐藏着复杂的神经编码机制。传统研究多采用简化的人工刺激,但近年来越来越多证据表明,只有使用包含丰富视觉特征和认知背景的自然刺激,才能真实反映大脑的工作模式。虽然功能磁共振成像(fMRI)已为空间编码模式研究做出重要贡献,但其秒级的时间分辨率难以捕捉物体识别中毫秒级的神经动态。而脑磁图(MEG)和脑电图(EEG)虽能提供毫秒级时间精度,却受限于空间定位能力。更关键的是,现有公开数据集如THINGS等存在模态间受试者不匹配、样本量有限等问题,严重制约了多模态融合研究的可靠性。

北京师范大学认知神经科学与学习国家重点实验室团队在《Scientific Data》发表了突破性解决方案——NOD数据集。该研究通过创新性实验设计,首次实现了同一批30名受试者在相同自然图像刺激下fMRI、MEG和EEG数据的同步采集,包含57,000张ImageNet图像的三模态神经响应数据。研究采用标准化BIDS格式存储数据,并通过严格的预处理流程(包括Zapline去噪、ICA伪迹剔除等)确保数据质量。技术验证显示,受试者动画识别准确率达83.69%,头动控制在亚毫米级,且MEG/EEG能稳定解码面部刺激(250ms后解码准确率显著)。

方法精要
研究团队从30名健康受试者(含19人同步EEG)采集数据,使用Psychophysics Toolbox呈现600×600像素图像(视角16°)。MEG采用CTF DSQ3500系统(1200Hz采样),EEG使用64导NeuroScan系统(500Hz采样),结构像通过西门子Prisma 3T获取。预处理整合MNE-Python等工具,包括BIDS转换、1-100Hz滤波、ICA伪迹剔除等步骤,最终生成-100至800ms分段数据。

数据记录
数据集通过OpenNeuro公开(ds005810/ds005811),包含原始数据、预处理时间序列和分段数据。图像按_.JPEG命名,元数据记录类别信息和行为反应。

技术验证

  1. 识别准确性:所有会话准确率>70%,均值83.69%,证实任务参与有效性。
  2. 头动控制:MEG会话内头动中位数0.14mm,会话间1.01mm,满足分析要求。
  3. 面部表征动态:MEG在晚期(>250ms)表现优于EEG,但二者均能有效区分面部与物体。
  4. 多模态融合:fMRI与MEG/EEG表征相似性分析显示,EEG早期(<300ms)、MEG晚期(>400ms)与fMRI相关性更强,揭示VTC处理动态的时空分化。

结论与意义
NOD数据集通过三大创新推动领域发展:首先,首次实现同群体多模态数据对齐,克服了跨模态比较的受试者变异问题;其次,30人样本量显著提升了个体差异研究的统计效力;最后,精心设计的动画识别任务为探究高级认知加工提供了新维度。该资源不仅为理解物体识别的时空编码机制建立新标准,更为开发脑机接口、神经退行性疾病早期诊断等应用研究奠定基础。正如作者所言,NOD将成为"认知神经科学的Rosetta Stone(罗塞塔石碑)",通过破译不同模态的"神经语言",最终实现对人脑视觉系统的全景解读。

生物通微信公众号
微信
新浪微博


生物通 版权所有