纵观资讯 纵观资讯

当前位置: 首页 » 实时追踪 »

跨模态因果对齐,让机器更懂视觉证据丨中大南洋理工等联合开源

跨模态因果对齐,让机器更懂视觉证据!

来自中山大学、新加坡南洋理工大学等团队提出跨模态因果对齐框架(CRA),通过因果干预和跨模态对齐,显著提升时空定位的准确性与可解释性。

相关论文已被CVPR 2025接收,代码已开源

事情是这样的——

近年来随着多模态大模型的发展,视频问答(VideoQA)任务——要求模型根据视频内容回答自然语言问题——性能显著提升

然而,现有模型往往依赖训练数据中的统计偏差(如语言关键词与答案的虚假关联),而非真正的因果视觉证据,导致回答缺乏可解释性。

举个栗子~

例如下图中,当视频中出现“婴儿”和“女性”时,模型可能仅因二者高频共现而给出答案,却忽略真实因果事件(如“女性抱起婴儿”)。

也就是说,虽然结果答对了,但过程中模型采纳的是错误的视觉依据。

针对类似情况,为提供可靠的视觉证据支持,视频问答定位(VideoQG)任务应运而生,要求模型同时输出答案及其对应视频片段的时间区间。

但现有方法面临两大挑战:

以上就是CRA框架诞生的背景。

此外,中山大学HCP-Lab团队已将关键的因果模块集成到开源因果框架CausalVLR中。

该框架是一个基于PyTorch的python开源工具包,用于因果关系发现,因果推理,为各种视觉语言推理任务实现最先进的因果学习算法。

现有方法常因依赖于训练数据中的统计偏差,导致模型无法准确识别与问题相关的因果视觉场景,进而产生不准确的时空定位结果。

为克服这一问题,CRA框架通过三个核心模块实现了从噪声抑制、特征对齐到因果关系建模的全流程优化。

该框架在NextGQA和STAR数据集上的实验结果表明,CRA能够显著提升模型的时空定位能力和因果推理的准确性,为视频问答定位任务提供了更可靠的技术解决方案。

三个核心模块具体展开如下:

GSG:抑制噪声,聚焦关键帧

第一个,高斯平滑定位模块(GSG)。

GSG模块通过自适应高斯滤波去噪,精准估计视频片段的时间间隔。

它的核心功能,是基于跨模态注意力估计时间区间,通过自适应高斯滤波去噪,生成鲁棒的视频片段特征。

技术亮点主要有仨:

1、跨模态注意力计算:利用CLIP视频特征与RoBERTa语言特征的交互,生成初始时间注意力权重;2、自适应高斯滤波:引入可学习参数的高斯核,抑制时序上的不稳定噪声(如无关背景帧),突出关键事件区域(下图);

3、动态阈值分割:根据平滑后的注意力分布,动态截取高响应区间,提升定位精度。

消融实验显示,移除高斯滤波(GSG w/o GS)会导致IoU@0.5下降2.2%(下表),证明其对噪声抑制的关键作用。

△GSG消融实验,其中SGG w/o GS†表示GSG在训练过程中具有高斯平滑,但在推理过程中没有高斯平滑

CMA:弱监督下的双向对齐

第二个,交叉模态对齐模块(CMA)。

CMA模块利用双向对比学习,增强视频与问答特征的对齐效果。

它的核心功能,是通过双向对比学习,对齐视频片段特征与问答特征,增强跨模态一致性。

技术亮点有二:

移除CMA模块后,Acc@GQA下降2%,IoP@0.5下降2.2%(下表),凸显其对弱监督训练的重要性。

ECI:切断虚假因果链

第三个,显式因果干预模块(ECI)。

ECI模块则通过前门和后门干预,消除多模态偏差,提升因果一致性。

它的核心功能,是针对视觉和语言模态分别设计前门干预与后门干预,消除多模态混淆因素。

技术亮点有二:

实验结果显示,在NextGQA数据集上,去除了Causal模块后相对于CRA在Acc@GQA造成了1.2%的性能损失。

在NextGQA数据集中,CRA以18.2%超越Temp[CLIP](NG+)2.2%,且在使用FrozenBiLM大模型时仍保持优势。

此外,IoP@0.5达28.5%,显著优于基于LLM伪标注的TimeCraft(27.8%),证明其无需额外数据的高效性。

在STAR数据集中,CRA分别以26.8%与27.5%的Acc@GQA分数在Temp[CLIP]和FrozenBiLM的Backbone下领先NG+。

通过统计弱监督视频定位的分布情况,研究团队可以观察到NG+局限于小区间的估计,而CRA所估计的区间与真实分布情况更符合。

综上,CRA框架通过跨模态因果对齐,首次在弱监督条件下实现了视频问答定位的高精度与可解释性。

目前,CRA框架代码已开源。

研究团队表示,CRA为视频理解提供了新的因果推理范式,或将推动自动驾驶、智能监控等领域的可信AI应用。

论文地址:

https://arxiv.org/abs/2503.07635

CRA-GQA仓库:

https://github.com/WissingChen/CRA-GQA

因果框架仓库:

https://github.com/HCPLab-SYSU/CausalVLR

未经允许不得转载: 纵观资讯 » 跨模态因果对齐,让机器更懂视觉证据丨中大南洋理工等联合开源