Loading...

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

智源社区1年前 (2023)发布 智源社区
264 0 0

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

论文链接:https://arxiv.org/abs/2112.04195

导读

随着预训练Transformer的蓬勃发展,基于孪生Transformer编码器的表示模型已成为高效文本匹配的主流技术。然而,与基于交互的模型相比,由于文本对之间缺乏交互,这些模型的性能严重下降。现有技术试图通过对孪生编码表示进行额外的交互来解决这一问题,而编码过程中的交互仍然被忽略。为了解决这一问题,作者提出了一种虚拟交互机制(VIRT),通过注意力图提取将交互知识从基于交互的模型转移到孪生编码器。VIRT作为一个仅用于训练运行时的组件,可以完全保持孪生结构的高效性,并且在推理过程中不会带来额外的计算成本。为了充分利用所学的交互知识,作者进一步设计了一种适应VIRT的交互策略。在多个文本匹配数据集上的实验结果表明,本文的方法优于现有的基于表示的模型。此外,VIRT可以轻松地集成到现有的基于表示的方法中,以实现进一步的改进。

贡献

文本匹配旨在对一对文本之间的语义关联进行建模,这是各种自然语言理解应用中的一个基本问题。例如,在社区问答(CQA)系统中,一个关键组件是通过问题匹配从数据库中找到与用户问题相关的类似问题。类似地,对话代理需要通过预测用户陈述和一些预定义假设之间的蕴含关系来进行逻辑推断。

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

最近,深度预训练Transformer的广泛使用在文本匹配任务方面取得了显著进展。通常有两种基于微调Transformer编码器的范例:基于交互的模型(即交叉编码器)和基于表示的模型(即双编码器),如上图(a)和(b)所示。基于交互的模型(例如,BERT)将文本对concat为单个序列,并在文本对之间执行完全交互。虽然完全交互提供了从模型底部到顶部的丰富匹配信号,但它也带来了较高的计算成本和推理延迟,这使得它很难在实际场景中部署。

例如,在一个电子商务搜索系统中,由于有数百万个好的查询对,使用基于交互的模型对这些对进行评分需要花费数十天的时间。相反,基于表示的模型由两个孪生编码器独立编码文本对,而无需任何交互。因此,它支持嵌入的离线计算,这大大减少了在线延迟,从而使此类模型在实践中非常有用。不幸的是,没有任何交互的独立编码可能会丢失匹配信号,从而导致性能严重下降。

为了平衡效率和效能,一些工作试图为孪生结构配备交互模块。已经提出了各种交互策略,例如注意力层和Transformer层。然而,出于效率考虑,这些交互模块是在孪生编码器之后添加的,为了保留孪生特性,孪生编码器编码过程中的交互仍然被忽略。因此,丰富的交互信号丢失,现有的基于表示的模型在以下方面仍然远远落后于基于交互的模型。

在这项工作中,作者试图打破基于交互的模型和基于表示的模型之间的困境。关键思想是在基于表示的模型中,在不破坏孪生结构的情况下,整合孪生编码过程中的交互。为此,作者提出了虚拟交互(VIRT),这是一种将文本对交互中的知识传递到基于表示的模型的孪生编码器的新机制。

具体来说,孪生编码器通过模仿完整的交互来学习这对文本之间的交互信息,并以基于交互的模型传递的知识为指导。将知识转移作为训练过程中的注意图提取任务来实现,在推理过程中可以删除该任务以保持孪生特征。因此称之为“虚拟互动”。此外,为了进一步利用孪生编码后所学的交互知识,作者设计了一种虚拟适应的交互策略。在一个名为VIRT编码器的基于表示的模型联合实现了VIRT和VIRT适应的交互策略,如上图(c)所示。

本文的贡献可以总结如下:

  1. 作者提出了一种新的虚拟交互机制VIRT,通过从基于交互的模型中提取注意力图,将其集成到基于表示的模型的孪生编码器中,而无需额外的推理成本。
  2. 大量实验表明,本文提出的VIRT编码器优于以前基于SOTA表示的模型,同时保持了推理效率。
  3. VIRT可以很容易地集成到其他基于表示的文本匹配模型中,以进一步提高其性能。

方法

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

在本节中,作者将首先描述基于交互的模型和基于表示的模型。然后,介绍虚拟交互机制(VIRT),它将交互知识从基于交互的模型提取到孪生编码器。此外,通过VIRT适应的交互策略,可以充分利用所学的交互知识。VIRT的体系结构如上图所示。

3.1 Interaction-based Models

给定两个文本序列X=[x1,…,xn]和Y=[y1,…,yn]作为输入,基于交互的模型将X和Y 拼接为[X;Y],并使用L层Transformer对[X;Y]进行编码。Transformer的每一层由两个残差子层组成:一个多头注意力操作(MHA)和一个前馈网络(FFN):
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!,其中d是隐藏状态的维数。这里,为了便于描述,省略了batch大小和注意力头的维度。H(l-1)是第(l-1)层的中间表示,它对X和Y之间的交互信息进行编码。Q(l),K(l)和V(l),是第l层的注意力参数,由H(l-1)映射而来。LN()表示LayerNorm操作。

可以看到,基于交互的模型能够通过完全注意力机制将交互信息编码到X和Y的表示中。具体地,组合表示以生成注意力图M,其表示不同交互信号的权重。这些表示根据M来进行选择和融合。

3.2 Representation-based Models

与基于交互的模型相比,基于表示的模型首先通过两个独立的孪生Transformer编码器分别对X和Y进行编码(这里假设每个编码器有L个Transformer层):中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!。然后,它们对孪生编码的中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!进行额外的相互作用。transformer的结构与基于交互的模型相同:

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

与基于交互的模型相比,编码过程中X和Y之间没有交互。在基于表示的模型中,X和Y之间的细粒度交互信息会丢失,这会导致性能下降。

3.3 Virtual Interaction

如前所述,基于表示的模型的主要缺点是在单独编码两个输入序列时缺乏交互。直观地说,基于交互的模型通过MHA机制执行交互。M(l)通过对应于X和Y的表示来计算。与基于交互的模型相比,基于表示的模型仅通过X(或Y)单独计算M(l)x(或)M(l)y。在接下来的部分中,将首先详细说明这两种模型在MHA操作方面的差异。接下来,介绍了VIRT机制,它可以在不增加额外推理成本的情况下改进基于表示的模型。

首先分解基于交互模型的MHA操作,如上图(b)中的蓝色注意图所示。具体而言,基于交互的模型中第l层的输入表示,即H(l-1),可分解为X部分和Y部分。因此,H(l-1)=[H(l-1)x;H(l-1)y]。基于此,注意力参数也可以重写为X部分和Y部分(表示为和)的组合。Softmax(·)操作之前的最终注意力得分(表示为)可分解为以下分区矩阵:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
因此S(l)可以分为四部分:中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

即:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
等式左边是仅在X或Y中执行的MHA操作,其对应于基于表示的模型中的MHA操作。右边指基于交互的模型中x和Y之间的交互,这些模型负责用交互信息丰富表示。然而,它们在基于表示的模型中缺失,从而导致这两种模型之间的性能差距。

通过以上分析,可以将基于表示的模型的缺失交互提取为X和Y之间的MHA操作。为了恢复这种缺失的交互,让基于表征的模型模拟基于交互模型中的交互,如下所示:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!

由于希望将基于表征的模型的性能改进为基于交互的模型,因此作者提出将缺失的注意图与其在基于交互的模型中已经存在的对应关系进行对齐。基于交互的模型中的注意图可以指导表征(即和)朝着交互丰富的方向发展,就好像表示在编码过程中相互作用一样。通过这种方式,在交互过程中提取知识,并将其传输到双编码器中,而不需要任何额外的计算开销。这就是为什么称这种机制为“虚拟交互”。

为了实现VIRT,作者采用了知识蒸馏技术,其中一个经过训练的基于交互的模型被视为教师,一个需要训练的基于表示的模型被视为学生。中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!对应基于交互的模型中X和Y之间的交互。他们可以直接从softmax(·)之前的注意力分数中得到:中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!前m行和最后n列部分,中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!对应于最后n行和前m列。除了softmax操作之外,作者还直接挑选这两个切片,以从基于交互的模型中形成引导注意图:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
作为有监督的交互知识进一步转移,以指导VIRT。具体来说,目标是最小化L2距离:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
仅在训练阶段将上述公式作为优化目标,并在推理期间将其删除。这保留了基于表示的模型的孪生属性,同时不会带来额外的推理成本。

3.4 VIRT-Adapted Interaction

通过VIRT,交互知识可以深入到基于表示的模型的每个编码层中。然而,在孪生编码后,最后一层的表示,仍然无法看到对方,因此缺乏明确的交互。为了充分利用所学的交互知识,作者进一步设计了一种适应VIRT的交互策略,该策略在VIRT学习的注意力图的指导下融合。

具体而言,作者在以下过程中执行和之间的VIRT适应交互。生成的注意图公式如下:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
其中Pool(·)表示平均池化操作。最后,利用简单融合预测匹配标签y:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
其中是concat操作,MLP表示多层感知机。总体训练目标是将特定任务的监督损失(即交叉熵损失)的组合降至最低:
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
其中α是衡量虚拟交互影响的超参数。
值得注意的是,VIRT是一种通用策略,可用于增强任何基于表示的匹配模型。

实验

中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
不同方法的性能如上表所示。BERT-base作为一个强大的基于交互的模型,显示了它的有效性。与BERT相比,Siamese BERT的性能显著下降。本文提出的VIRT编码器实现了最好的性能,优于所有基于表示的baseline,甚至与基于交互的BERT模型相比具有竞争力。这证明VIRT能够近似基于交互的模型的深度交互建模能力。
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
上表显示了本文提出的VIRT以及VIRT适应相互作用的贡献。不使用VIRT或VIRT适应交互的性能下降表明了这两种体系结构的有效性。对于MNLI和RTE,由于移除VIRT适应的交互而导致的性能下降更为严重。
中科大&美团提出VIRT,从交互模型中蒸馏知识,在文本匹配上实现性能和效率的平衡!
为了验证所提出的VIRT的通用性,作者进一步将其导入到上述基于表示的模型中。结果如上表所示。根据结果,可以观察到VIRT可以很容易地集成到其他基于表示的文本匹配模型中,以进一步提高性能。

© 版权声明

相关文章

暂无评论

暂无评论...