基于跨语言图神经网络模型的属性级情感分类
鲍小异
,
姜晓彤
,
王中卿
,
周国栋
软件学报 ![]() ![]() |
![]() |
不同于常见的句子级情感分类, 属性级情感分析任务聚焦于长文本中对某个具体属性的情感倾向判断. 例如, “手机的性能不错, 但是电池续航不太好”中就包含了“性能”和“续航”这两个具有相反情感倾向的属性, 如果像传统的任务那样局限于句子级的情感, 就会对句子中包含的信息造成极大的浪费. 目前的主流深度学习模型已经在属性级情感分类上取得了不错的性能表现, 如TD-LSTM[1]、TC-LSTM[1]、ATAE-LSTM[2]、机器阅读理解模型等. 然而, 目前的成就主要依靠于个别单语言范围内大量成熟的有标注数据, 比如英文的SemEval14 Restaurant/Laptop Review数据集、Twitter数据集等. 在许多像中文一样缺乏成熟标注数据集的语言上, 上述单语言模型很难达到理想的性能. 这种不同语言之间的资源不均衡, 使得许多具有大量丰富信息但是未被标注的数据被浪费掉. 基于上述情况, 跨语言的属性级情感分类任务被提出, 其主要目的是使用标注数据资源丰富的源语言数据集作为训练集来训练模型, 将缺乏成熟标注数据的目标语言数据集作为测试集来对模型性能进行评估, 以期提升模型在标注资源匮乏的目标语言上的分类性能表现(如图 1所示), 最终达成使用跨语言模型对目标语言数据进行标注利用的目的, 从而更好地利用规模庞大但却缺乏成熟标注数据的中文语言数据集. 其中, 最为困难的核心问题为如何构建不同语言的文本之间的联系. 为此, 我们提出了聚焦于词级别关系的跨语言图模型来解决上述问题.
![]() |
图 1 跨语言属性级情感分类任务示例图 |
已有一些研究着手解决跨语言的文本分类任务, 比如使用双语词典、双语词向量等等. 在预训练语言模型兴起后, 主流做法开始转向使用多语言预训练深度学习模型(mPLM)[3]: 使用大量包含多语言数据的语料库来对基于Transformer结构的深度学习模型进行预训练, 并在一些下游任务上取得了不错的性能表现. 此外, Wang等人[4]提出的CLHG模型使用了类似于TextGCN[5]的文本图模型, 克服了预训练深度学习模型只注重语义信息而忽视句法信息这一缺点. 但在上述方法中, 无论是mPLM还是CLHG, 均只是聚焦于构建句子级的关系, 忽略了具有丰富信息的词级别的跨语言语义联系, 而后者在属性级情感分析这类关注属性级而非句子级信息的任务上显得更为重要.
为了克服上述问题, 利用词级别信息更好地构建不同语言的文本之间的联系, 我们提出了一种跨语言图模型. 首先, 为了更好地提取双语间的语义联系, 构建边密集图, 我们使用机器翻译将文本语言进行互相转换, 使用源语言以及源语言的翻译去预测目标语言与目标语言的翻译. 我们使用边密集的图模型来构建双语的预训练表征之间的联系, 将源语言和目标语言以及各自翻译的词和句均抽象为图中的节点. 针对属性级情感分类任务的特点, 我们将双语的语义关系细分到词一级, 不仅构建了单语言词-句共现边, 还构建了双语言词-词翻译边、双语言词-句翻译边. 此外, 在最后输出预测结果时, 使用预测目标在目标语言与源语言这两种语言形式的预测概率联合判断结果, 相较于单语言概率判断又有了一定的提升.
综合来说, 我们工作的贡献可以总结为:
● 提出了一种基于图神经网络的跨语言属性级情感分类模型, 并首次在跨语言的单词级别上设计了包括单语词-句、双语词-句、双语词-词等多种边来构建不同语言文本之间的关联;
● 相较于传统使用单语言数据概率判断分类结果的方法, 我们首次提出了同时使用目标语言和目标语言翻译两种语言数据分类概率联合判断分类结果的方法, 并与仅使用单语言分类相比, 性能上有了一定的提升;
● 进行了一系列可扩展的实验, 包括在跨中英文两个数据集的多个领域上的实验以及逆向使用目标语言预测源语言属性级情感倾向的实验. 实验结果表明: 相较于其他基线模型, 我们提出的模型在F1值指标上有着较大的提升.
1 相关工作早期的属性级情感分类主要依靠于复杂的特征工程, 通过依照经验人工制定规则的方式, 训练一个传统的机器学习分类器. 近年来, 随着深度学习的发展, 有许多工作致力于提升深度学习模型在属性级情感分类上的性能表现: TD-LSTM[1]和TC-LSTM[1]将属性词和上下文区分开, 在序列处理的每一个阶段都考虑属性信息. Wang等人[2]提出的ATAE-LSTM则同样将属性信息与上下文信息拼接在一起, 通过编码提取表征, 并在序列输出中结合属性特征表示来计算注意力权重. 在预训练语言模型, 例如BERT[3]诞生后, 也有许多工作将预训练语言模型应用到属性级情感分析的任务上. Song等人提出的AEN-BERT[6]使用BERT分别提取属性词和上下文的编码, 并使用注意力机制来构建属性词和上下文之间的语义联系. Zeng等人提出的LCF-BERT[7]则使用Context Dynamic Weighting/Context Dynamic Mask的方式, 在上下文编码中引入属性词的信息. Mao等人[8]使用BERT预训练模型作为主干, 将机器阅读理解(MRC)的方法应用在属性级情感分析任务上, 并取得了SOTA的性能表现. 因而, 我们也选择机器阅读理解模型作为我们的单语言属性级情感分类模型, 并以此为基础, 加入图模型来构建跨语言联系.
而在跨语言分类方面, 主要的思路包括两个方面: 建立跨语言文本联系或者使用除去标注方法之外的方法来解决目标语言资源匮乏的问题. 对于前者, 传统的做法是对语料进行翻译[9], 或者在模型外使用一些双语对齐的工具[10], 例如双语词典[11−13]或者近似词库等等. 近年来的主流做法则是基于跨语言文档训练一些跨语言的词向量, 包括双语词向量[14−16]、Zhang等人提出的Common SubWord Representations[17]. 大规模预训练语言模型兴起后, 出现了许多多语言预训练语言模型(mPLM)[18], 诸如mBert[3]、XLM[19]、XLM-R[20]. 其中, mBert使用共享词汇表的104种语言来训练模型, 但与单语言BERT相比, 其模型本身并没有针对多语言进行优化: 大多数词汇没有在语言间共享, 因此能学到的跨语言知识是很有限的. 针对上述问题, XLM的模型输入改用了字节对编码(BPE), 把输入按所有语言中最常见的词片段(sub-words)进行切分, 以此来增加跨语言共享的词汇. 此外, XLM还提出了翻译语言模型(TLM): 在训练语料中加入含义相同语言不同的训练样本和位置编码, 训练中, 用一个语言的上下文信息去预测另一个语言被遮住的token. 训练时则同时训练掩码语言模型(MLM)和TLM. XLM-R则在结合XLM和RoBERTa[21]中使用方法的基础上, 增加了新模型的语言数量和训练示例的数量, 用超过2 TB的已经过清理和过滤的数据, 以自我监督(self-supervised)的方式训练跨语言表示, 实现了在跨语言下游任务上的SOTA性能, 成为了首个性能上超过单语言BERT的多语言预训练模型. 此外, 与上述使用跨语言的预训练模型或者跨语言词库的思路来预测low-resource目标语言不同, Fei等人提出的MVEC[22]则提出了zero-resource的概念, 强调在完全没有对齐工具或者双语词库的情况下进行跨语言分类任务: 通过在模型中加入使用编码器-解码器结构(encoder-decoder)的无监督学习机器翻译(unsupervised machine translation)模型, 并在训练时一起使用机器翻译和分类的Loss对模型的参数进行调整, 从而实现在只有源语言和目标语言各自单语言词库的zero-resource情况下进行跨语言文本分类. 而面对目标语言标注资源匮乏的问题, Chen等人[23]则从文档级别的情感信息入手, 利用文档级别信息标注非常容易获得而属性级信息标注非常难以获得的特点, 使用胶囊网络(capsule network)将文档级的情感信息加入到模型中以提高在属性级情感分类任务上的性能. Zhang等人[17]的思路则与之相反, 摒弃了句子级信息转而聚焦于更加细分的字符级信息, 提出了classification aided by convergent orthography (CACO)框架, 使用一个字符级别的跨语言编码器对目标语言和源语言进行编码, 再投入到一个词级别的分类器对文档进行分类.
图神经网络自提出后就引起了广泛的关注, 并被应用到许多情感分析和文本分类任务当中[24−28], 其中, TextGCN[5]提出了一种通过将文档和单词都视作图中节点的方法来将文本抽象成图. 但是这些工作大多都局限于单语言范围内, 只有Li等人[29]和Wang等人[4]在跨语言工作上使用了图神经网络, 而这两者中: 前者只是将图神经网络应用在元学习方面, 后者在跨语言方面则局限于文档级的关系, 忽略了词一级的跨语言联系. 这种方法在文档级(句子级)的文本分类中取得了不错的效果, 但在属性级情感分类这种可能存在同句不同情感倾向的任务中, 文档级的关系则显得比较粗糙, 因而我们从属性级情感分类的特点出发, 聚焦于更加细分的词一级跨语言关系, 提出了基于跨语言图神经网络的属性级情感分类模型.
2 基于跨语言图神经网络的属性级情感分类模型下面介绍我们提出的跨语言图神经网络的属性级情感分类模型, 主要包括跨语言词-词、词句图的构建和模型的整体结构. 而在流程方面, 首先, 为了构建边密集图, 我们将数据中目标语言数据和源语言数据翻译成彼此, 再将翻译数据与原生数据中包括属性词在内的所有的词抽象成图中的一个词节点; 而上下文与属性词则通过机器阅读理解的形式抽象成图中的句节点, 使用一个双语词典构建包括双语词-词翻译边、双语词-句共现边以及单语词-句共现边在内的词级别跨语言图; 随后使用机器阅读理解的形式组织上下文和属性词, 并使用多语言预训练语言模型对其编码, 将编码结果和跨语言图投入到图卷积神经网络GCN中. 最后, GCN将会输出对数据集中所有目标语言句节点及其翻译句节点的预测结果, 并使用二者的分类概率联合判断最终结果. 图 2展示了我们提出的跨语言图神经网络的属性级情感分类模型整体的操作流程.
![]() |
图 2 模型总体操作流程 |
图 3则展示了我们所提模型的整体结构.
![]() |
图 3 模型总体结构图 |
为了构建边密集跨语言图, 我们对于所有数据均使用机器翻译将其由源语言数据翻译成目标语言数据(或与之相反). 为了避免机器翻译的质量影响到关键的属性词, 我们将属性词和上下文分开翻译, 然后再将翻译过后的二者结合起来. 实际测试中发现, 采用加入机器翻译语料的方式可以有效地提升模型的性能表现. 具体方式如图 4所示.
![]() |
图 4 属性词分离翻译示意图 |
早期在属性级情感分类任务上用于区分上下文和属性词的方式主要包括TD[1]和TC[1], 这些方式在RNN-base的模型上取得了不错的性能表现. 而在预训练语言模型兴起后, 机器阅读理解(machine reading comprehension, MRC)形式逐渐取代了前两者. 因此, 我们在对属性词和上下文编码时, 采用机器阅读理解的形式来构成跨语言图中的句节点: 将需要判断情感倾向的属性词作为Query, 将上下文作为Context, 两者之间使用“[SEP]”符号隔开后投入到XLM-R模型中; 随后, 使用处于输入序列第1位的“[CLS]”的编码作为整个属性词和上下文的编码向量, 与建立的跨语言图一同投入到GCN中. 需要注意: 当一条数据包含N个属性词时, 将会由该条数据衍生出N个句节点, 这些句节点之间仅以Query部分进行区分, 具体形式如图 5所示.
![]() |
图 5 机器阅读理解形式编码示意图 |
我们借鉴了其他一些在文本分类任务上使用图神经网络的方法[4], 结合了跨语言任务的实际情况, 采取如下的流程建立投入GCN的跨语言图: 首先构建6种词句节点, 包括源语言句节点、源语言翻译句节点、目标语言句节点、目标语言翻译节点、源语言词节点、目标语言词节点, 其中, 所有的源语言节点属于有标注的训练集, 而目标语言节点则属于测试集, 在图中的以上6种节点之间, 我们建立以下3种边来在源语言和目标语言之间建立跨语言的语义联系(如图 6所示).
![]() |
图 6 构建跨语言图示意图 |
● 单语言词-句共现边: 我们采取TextGCN中提出的建边方式, 构建了单语言词-句共现边来在单语言范围内词节点和句节点之间建立语义联系: 如果存在某一个词节点所代表的词存在于某一个句节点所代表的句中, 就在这两个节点之间建边. 不同的是: 在跨语言环境中, 该词节点单词可能不仅存在于其原生语言句节点中, 也可能存在于翻译语言句节点中, 例如: “书”不仅存在于原生中文句子“借了一本书”中, 也存在于“I like this book”的翻译“我喜欢这部书”中.
● 双语言词-句共现边: 为了构建目标语和源语言之间的跨语言语义联系, 我们在单语言词-句共现边的基础上构建双语言的词句共现边, 主要包括两种建边方式.
➢ 按词对齐(by words): 如若某个词节点代表的词的翻译存在于某个句节点所代表的句子中, 则在这个词节点和句节点之间建边. 需要注意的是, 这个词节点和句节点所代表的文本应当属于不同的语言. 例如: “书”的翻译“book”存在于句子“I like this book”中, 则在“书”和“I like this book”之间建边.
➢ 按句对齐(by sentences): 如若存在一条原生句子XT和另外一条与其对应的翻译句子XS, 则XT中所有词的词节点与代表XS的句节点相连接; 同理, XS中所有词的词节点与代表XT的句节点相连接.
● 双语言词-词翻译边: 我们摒弃了句子级常见的句-句翻译边和基于余弦相似度的句-句相似边, 因为属性级情感分类任务的分类目标为方面级而非句子级, 因而经常存在同一个句子中的两个属性情感倾向相反的情况. 例如图 1中的“手机性能蛮好, 但是电池不耐用”, 若使用句-句相似边, 那么在对“性能”和“电池”的分类时会将两者相连(两者所属句子相同, 余弦相似度为1), 然而两者的情感倾向却截然不同. 句-句翻译边则也类似, 会将针对“性能”这一积极倾向属性的句子“手机性能蛮好, 但是电池不耐用”与针对“battery”这一消极倾向属性的句子“The performance is great, but the battery life is short”连起来. 所以, 针对属性级情感分类任务的特点, 我们将翻译关系细分到词一级, 即若两个词节点所代表的词存在翻译关系时, 在二者之间建边. 例如: “书”的翻译为“book”, 则在分别代表这个两个词的词节点之间建边.
2.4 图神经网络层(1) 图卷积网络
卷积神经网络(convolution neural networks, CNN)在自然语言处理、图像处理等多个领域展现了优秀的建模效果. 传统卷积神经网络模型的实质是在数据结构平移不变性的前提下进行特征提取, 因此相关应用只能局限在规则的欧氏空间中, 但现实中的许多数据是以不规则的非欧式空间结构呈现的, 比如分子结构数据、社交网络结构以及对话数据结构等.
Bruna等人[30]首次提出了将卷积神经网络模型泛化至非欧式空间的方法. 之后的相关研究基本沿袭了卷积神经网络的网络局部连接和卷积核参数共享的核心思想, 通过在不规则的图结构上定义卷积算子、池化算子来提取空间特征. 许多文献广泛使用了切比雪夫多项式来拟合卷积核, 在此基础上, Kipf和Welling[31]一同提出了图卷积网络模型(graph convolution network, GCN), 借助图的拉普拉斯矩阵的特征值和特征向量来定义卷积算子的方法. GCN层之间的传播公式如下:
f(Hl,A)=σ(ˆD−12ˆAˆD−12HlWl), |
其中, Hl为第l层输入特征, 对于输入层的话, H就是输入节点编码; A为图的邻接矩阵,
(2) 图注意力网络
除去GCN外, 我们还使用了Bengio等人[32]提出的图注意力机制(graph attention networks, GAT). 与上述GCN相比, GAT与GCN都是将邻居顶点的特征聚合到中心顶点上, 利用图中的local stationary学习新的顶点特征表达. 不同的是: GCN利用了拉普拉斯矩阵; 而GAT则利用注意力机制来强调输入的图中任意一节点Xi与其多个邻接节点之间关系的差异性, 从而将模型的注意力更多地分配给对学习当前节点特征更有帮助的邻接节点. GAT通过归一化节点之间的相关系数来计算注意力系数, 随后, 根据注意力系数对特征加权求和得到新的节点特征, 其相关系数公式如下:
eij=a(concat(Whi,Whj)),j∈Ni, |
其中, Ni为节点i的邻接节点集合, eij为节点i与其邻接节点j∈Ni的相关系数W与a为可学习的参数. 计算出相关系数后, 通过归一化来计算注意力系数, 公式如下:
αij=exp(LeakyReLu(eij))∑kk∈Niexp(LeakyReLu(eik)), |
其中, αij为节点i与其邻接节点j之间的注意力系数, LeakyReLu为激活函数. 随后, 通过加权求和得到新的节点特征, 公式如下:
h′i=σ(∑j∈NiαijWhj), |
其中, σ为非线性激活函数.
对于一组由源语言句
● 单语言词-句共现边
在单语言范围内, 若存在源语言词
edge(Ssi,Wsj)={1, if Wsj in Ssi0, else |
或
edge(Sti,Wtj)={1, if Wtj in Sti0, else. |
● 双语言词-句共现边
在跨语言范围内, 若存在源语言词
edge(Ssi,Wtj)={1, if tranlate(Wtj) in Ssi0, else |
或
edge(Sti,Wsj)={1, if tranlate(Wsj) in Ssi0, else. |
● 双语言词-词翻译边
在跨语言范围内, 若存在源语言词
edge(Wsj,Wtk)={1, if tranlate(Wtk) in Wsj0, else. |
通过以上3种边, 构建了我们跨语言属性级情感分类模型中的图结构G=(vertex, edge). 在我们的模型中, 图结构G与节点机器阅读理解编码结果Xvertex一同投入到图模型中, 输出结果再经过全连接层后进行分类.
2.5 模型训练与测试给定上下文句子以及其中一个属性词, 我们的任务是预测属性词的二分类正负情感倾向. 我们使用了Adam优化器来训练模型, m是类别数量; n为样本数量; i代表样本i; yic为符号函数(0或1), 如果样本i的真实类别等于c, 取1, 否则取0; pic观测样本i属于类别c的预测概率, 我们的训练目标是最小化交叉熵损失函数来学习模型参数θ, 损失函数定义如下:
L(θ)=−1n∑ni=0m∑c=1yiclog(pic;θ). |
由于我们的方法需要使用所有的样本建图, 包括训练集和测试集, 因此在训练时, 是将所有的样本均投入到模型中, 使用模型输出中的训练集结果来计算损失函数, 使用测试集结果来评估模型性能.
2.6 双语概率联合判断我们在将数据投入到模型中之前, 会将目标语言和源语言数据分别机器翻译成彼此, 有标注的数据和无标注的数据会一起建图后投入到模型中. 输出后, 有标注的数据会计算Loss后反向传播; 而无标注的数据中, 每一条数据的源语言和目标语言结果将会对应相加后成为该条数据的最终判断结果. 即: 对于每一条未标注的目标语言数据XT, 会有一条与其对应翻译成源语言的未标注数据XS. 在模型测试时, 会分别输出P(XT)=
T(X)=max(pTpos+pSpos,pTneg+pSneg). |
在实际测试中我们发现: 采用双语联合概率判断, 可以有效地提升模型的性能表现.
3 实验设置与结果分析 3.1 数据集我们使用英文和中文分别作为源语言和目标语言进行实验. 在英文上, 我们使用Semeval-14-Restaurant/Laptop Review数据集. Semeval-14是非常成熟的英文有标注属性级情感分析数据集, 主要是针对餐厅和笔记本电脑的电商评论内容, 其中每条数据均有一个或者多个由{属性词, 情感词, 情感倾向}组成的三元组. 我们对Semeval-14数据集进行筛选, 选择了三元组数量小于等于3的数据, 在Res和Lap两个领域上各随机选择了300条数据, 即一共600条数据, 且正负平衡. 在中文上, 我们使用淘宝的中文数据集, 有家具、百货、厨房、家纺、玩具共5个领域的数据. 与英文数据类似, 我们在每个领域上同样筛选了正负平衡的600条数据.
在正向实验中, 我们使用英文数据作为训练集, 测试其在中文数据集的5个领域(每个领域600条)上各自的表现. 此外, 出于验证的目的, 我们也进行逆向的实验, 将中文作为源语言、英文作为目标语言进行测试. 将中文数据的5个领域混合后随机选择600条数据作为训练集, 分别测试在英文Res和Lap两个领域各600条的表现. 具体数据见表 1.
![]() |
表 1 实验所用数据统计 |
我们使用Huggingface Transfomers中的XLM-RoBerta作为机器阅读理解的编码器, 使用源语言数据(在我们的实验中为英文)微调过后的xlm-roberta-base预训练参数对源语言和目标语言进行编码. 此外, 出于对比的目的, 我们也使用了没有进行机器翻译的训练集和测试集投入到模型中进行测试.
我们使用F1值来评估模型性能, 取值范围为0.0−1.0, 取值越高, 说明模型的性能越高:
F1=2×precision×recallprecision+recall. |
经过调试测定, 我们最终设定GCN的隐藏层维度为768, 输出维度为256, 优化器为Adam, 学习率为0.000 1, L2正则为0.001, 句子的最大长度为130. xlm-roberta-base预训练参数在英文数据上预先以batchsize为32, 学习率为0.000 1, 微调了3轮. 所有实验在1张Nvidia RTX 2080S GPU上完成.
3.3 基准模型介绍为了评估模型效果, 我们选取了4种基准模型作为对比, 分别是mBert、XLM、XLM-RoBerta、CLHG, 以下是对这些基准模型的简要介绍.
● multilingual BERT (mBert): 用104种语言组成的单一语料库训练的单个多语言BERT模型, 它的训练语料包含了104种语言的维基百科页面, 并且共享了一个词汇表. 多语言BERT在训练时既没有使用任何输入数据的语言标注, 也没有使用任何翻译机制来计算对应语言的表示. 多语言BERT对中文使用基于字符的标记化, 对所有其他语言, 使用WordPiece标记化;
● XLM: 尽管mBert的训练语料中包含超过100种语言, 但其模型本身并没有针对多语言进行优化: 大多数词汇没有在语言间共享, 因此能学到的跨语言知识是很有限的. 针对上述问题, XLM的模型输入改用了字节对编码(BPE), 把输入按所有语言中最常见的词片段(sub-words)进行切分, 以此来增加跨语言共享的词汇. 此外, XLM还提出了翻译语言模型(TLM): 在训练语料中加入含义相同语言不同的训练样本和位置编码, 训练中, 用一个语言的上下文信息去预测另一个语言被遮住的token. 训练时, 则同时训练掩码语言模型(MLM)和TLM;
● XLM-RoBerta: XLM-R在方法上使用XLM+RoBerta, 并增加了语种数量和训练数据集的数量, 使用超过2 TB的已经预处理过的CommonCrawl数据集, 以自监督的方式训练跨语言表征, 最终超过了单语言BERT模型在每种语言上的性能;
● CLHG: 使用了XLM-R作编码, 并在目标语言和源语言之间构建了跨语言图, 包括双语句-句翻译边、单语句-句相似边、单语词-句词性共现边等, 随后将编码信息和跨语言图通过图模型来输出分类结果.
3.4 实验结果与分析(1) 与基准系统比较
表 2列出了我们的模型与上述基准模型的实验结果. 其中, mBert、XLM、XLM-R属于不使用翻译的方法, 它们均使用原生英文数据作训练集, 原生中文数据作测试集, 其CN列是指在原生中文数据测试集上的性能表现; 而XLM-R (Translate)、CLHG和我们提出的模型属于使用翻译的方法, 训练集为原生英文数据和由其翻译来的中文数据, 测试集为原生中文数据和由其翻译来的英文数据, 其CN列是指在测试集中原生中文数据上的性能, EN列是指在测试集中翻译英文数据上的性能, UNI列则表示两者的概率联合判断.
![]() |
表 2 英文数据集预测中文数据集结果 |
![]() |
表 2 英文数据集预测中文数据集结果(续) |
从表中可以看出: 在使用F1指标的测评中, 我们的最终模型在使用英文数据集预测中文数据集的结果上取得了优于其他所有模型的效果(83.01). 其中, 双语言词-句共现边按词对齐(by words)的方式在两个语言单独的性能指标上与按句对齐(by sentences)互有高低, 但却可以通过联合概率判断的方式超越了按句对齐的性能指标, 而后者因为在互为翻译的两个句节点之间拥有数量更多的边, 导致模型在两个语言上的判断结果十分接近, 无法通过联合概率判断来提升性能表现. CLHG中使用的句-句翻译边和句-句相似边过于强调句子级别的关系, 并不适合于属性级情感分类这种聚焦于词级别的文本分类任务, 在我们的实验中, 各项指标均低于我们提出的聚焦于词-词关系的模型.
此外, 由表中可以看出, 使用GAT的方法要显著地低于使用GCN的方法. 我们认为: GAT虽然相较于GCN摒弃了拉普拉斯矩阵, 转而使用利用注意力机制动态地学习节点之间的关系, 但是这种方法并不适用于我们所提出的词-句建图的方式. 因为在我们所提出的图中的边是依据数据中的共现以及翻译这两种强关联关系构建的, 摒弃了由此而构建的拉普拉斯矩阵就忽略了节点之间本身存在的关系, 从而导致性能下降.
在基准模型中, 使用机器翻译的模型XLM-R (Translate)显著地低于不使用机器翻译的模型XLM-R, 我们认为, 这是由于机器翻译的质量所致.
我们还进行了逆向的实验, 即使用中文作为源语言, 英文作为目标语言, 结果见表 3.
![]() |
表 3 逆向使用中文数据集预测英文数据集结果 |
由表 3可见: 在逆向实验中, 我们的最终模型依然取得了优于基线模型的效果, 这说明我们的基于图神经网络的跨语言模型是有效的. 与正向实验中按句对齐和按词对齐在性能上较为接近不同, 逆向实验中按句对齐显著地高于按词对齐, 分析发现: 在我们构建的图中, 与中文淘宝数据相连的边远多于与英文SemEval数据相连的边, 大概为2:1, 当英文SemEval数据作测试集时, 由于按词对齐方式构建的边的数量更加稀疏, 导致与按句对齐方式的性能差距被放大.
(2) 不同影响因素的比较
在实验中, 我们根据该数据集的信息构成, 考虑了前述的多种图结构设计方法, 并对多种方法及其组合进行了效果评测, 用以探究边的类型对模型效果的影响. 从表 4的实验结果中我们可以得到如下结论: 第一, 构建双语言词-词翻译边带来的提升最大(由80.84提升到82.28), 这说明我们摒弃了CLHG使用的文档级(句子级)翻译关系, 将双语间语义关系细分到词一级的思路是有效的; 第二, 将图结构进行叠加可以取得进一步的提升, 如果忽视联合概率判断的性能表现的话, 显然在我们构建的跨语言图中, 边的数量越密集, 所带来的性能的提升也越大. 这说明我们对话结构的多种建模方法是有意义的, 增加边结构的数目能够更好地构建双语数据之间的语义联系.
![]() |
表 4 不同图结构对模型效果的影响 |
![]() |
表 4 不同图结构对模型效果的影响(续) |
除去探究边的类型对模型效果的影响之外, 我们也探究了加入机器翻译语料后带来的变化对于模型性能的影响, 在我们的模型中去除了翻译的句节点并与原本的模型性能作对比. 见表 5.
![]() |
表 5 翻译语料对模型效果的影响 |
![]() |
表 5 翻译语料对模型效果的影响(续) |
由表表 5可知: 我们通过加入机器翻译句节点的方法, 有效地提高了所提模型的性能表现(79.24提升到81.78). 我们认为, 这是因为加入机器翻译句节点有效地提升了所构建的跨语言图中边的数量. 如表 6所示: 加入翻译句节点将平均边数量由133 031提升到219 816, 从而形成了边更为密集的跨语言图, 并且加入机器翻译句节点还可以通过双语言联合判断的方法继续提高模型性能. 这说明, 我们构建边密集跨语言图的思路是正确的, 更多的边有效地构建了目标语言和跨语言数据之间的语义联系.
![]() |
表 6 模型跨语言图中边的数量 |
(3) 实例分析
本文选择基线模型中表现较好的CLHG作为对照模型, 对图 5中的实例进行分析. 如图 7例中所示: 由于属性级情感分类的特点, 经常存在某一句话中的两个属性词分布拥有不同的情感倾向, CLHG中使用的文档级(句子级)翻译关系和相似关系会导致在构建跨语言图时, 在如同实例中这样两个同句不同倾向的数据之间建边, 从而导致模型的误判, 致使性能下降. 本模型则从属性级情感分类的特点出发, 聚焦于词级别的语义联系, 成功理解了实例中的两个属性词进行分类. 这说明, 本文使用的图结构能够更好地构建跨语言任务的语义联系, 从而在一定程度上提升了跨语言属性级情感分类的性能表现.
![]() |
图 7 实例分析对照图 |
针对不同语言之间的数据资源分布不均匀的现象, 本文提出了一种基于跨语言图模型的属性级情感分类模型. 该模型以预训练语言模型为框架, 通过图神经网络有效刻画了源语言和目标语言数据之间的语义关系, 增强了模型对词级别的跨语言语义的理解能力. 我们在中英文跨语言数据集上, 分别测试了使用英语数据预测中文数据和逆向的使用中文数据预测英文数据的实验. 结果表明, 我们的方法在F1指标上超出了其他基线模型. 我们认为: 在跨语言属性级情感分类任务或者与其类似的其他一些聚焦于词级别的跨语言分类任务上, 都可以尝试通过使用构建词-词和词-句关系的思路来提升模型的性能表现.
我们下一步的研究方向主要是将跨语言建图的思路应用到属性级情感分析中更为复杂和困难的子任务中: 即属性词和情感词抽取. 与属性级情感分类相比, 属性词和情感词抽取更加关注于每个句子中词级别的信息, 本文中提出的聚焦于词级别的跨语言关系的思路或许会在属性词抽取任务上带来更大的性能提升.
[1] |
Tang DY, Qin B, Feng XC, Liu T. Effective LSTMs for target-dependent sentiment classification. In: Proc. of the 26th Int'l Conf. on Computational Linguistics: Technical Papers (COLING 2016). 2016.
|
[2] |
Wang YQ, Huang ML, Zhu XY, Zhao L. Attention-based LSTM for aspect-level sentiment classification. In: Proc. of the 2016 Conf. on Empirical Methods in Natural Language Processing. 2016.
|
[3] |
Devlin J, Chang MW, Lee K, Toutanova K. BERT: Pre-training of deep bidirectional transformers for language under-standing. In: Proc. of the 2019 Conf. of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol. 1 (Long and Short Papers). Minneapolis: Association for Computational Linguistics, 2019. 4171-4186.
|
[4] |
Wang ZY, Liu X, Yang PJ, Liu SX, Wang ZS. Cross-lingual text classification with heterogeneous graph neural network. In: Proc. of the Association for Computational Linguistics 2021. 2021.
|
[5] |
Yao L, Mao CS, Luo Y. Graph convolutional networks for text classification. In: Proc. of the AAAI Conf. on Artificial Intelligence, Vol. 33. 2019. 7370-7377.
|
[6] |
Song Y, Wang J, Jiang T, Liu Z, Rao Y. Targeted sentiment classification with attentional encoder network. In: Tetko I, Kůrková V, Karpov P, Theis F, eds. Proc. of the Artificial Neural Networks and Machine Learning: Text and Time Series (ICANN 2019). 2019.
|
[7] |
Zeng BQ, Yang H, Xu RY, Zhou W, Han XL. LCF: A local context focus mechanism for aspect-based sentiment classification. Applied Sciences, 2019, 9(16): 3389.
[doi:10.3390/app9163389] |
[8] |
Mao Y, Shen Y, Yu C, et al. A joint training dual-MRC framework for aspect based sentiment analysis. arXiv abs/2101.00816, 2021.
|
[9] |
Wan XJ. Co-training for cross-lingual sentiment classification. In: Proc. of the Joint Conf. of the 47th Annual Meeting of the ACL and the 4th Int'l Joint Conf. on Natural Language Processing of the AFNLP. 2009. 235-243.
|
[10] |
Andrade D, Sadamasa K, Tamura A, Tsuchida M. Cross-lingual text classification using topic-dependent word probabilities. In: Proc. of the 2015 Conf. of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. 2015. 1466-1471.
|
[11] |
Shi L, Mihalcea R, Tian MJ. Cross language text classification by model translation and semi-supervised learning. In: Proc. of the 2010 Conf. on Empirical Methods in Natural Language Processing. 2010. 1057-1067.
|
[12] |
Li YG, Huang HY, Shi SM, Jian P, Su C. Title recognition of maximal-length noun phrase based on bilingual co-training. Ruan Jian Xue Bao/Journal of Software, 2015, 26(7): 1615-1625(in Chinese with English abstract).
http://www.jos.org.cn/1000-9825/4630.htm [doi:10.13328/j.cnki.jos.004630] |
[13] |
Wang X, Shan LQ, Hou L, Yu JF, Chen J, Tao MY. Chinese English bilingual dictionary extraction based on encyclopedia corpus. Journal of Chinese Information Processing, 2021, 35(1): 25-33(in Chinese with English abstract).
https://www.cnki.com.cn/Article/CJFDTOTAL-MESS202101005.htm |
[14] |
Zou WY, Socher R, Cer D, Manning CD. Bilingual word embeddings for phrase-based machine translation. In: Proc. of the 2013 Conf. on Empirical Methods in Natural Language Processing. 2013. 1393-1398.
|
[15] |
Ziser Y, Reichart R. Deep pivot-based modeling for cross-language cross-domain transfer with minimal guidance. In: Proc. of the 2018 Conf. on Empirical Methods in Natural Language Processing. 2018. 238-249.
|
[16] |
Peng XY, Zhou D. Survey of cross-lingual word embedding. Journal of Chinese Information Processing, 2020, 34(2): 1-15, 26(in Chinese with English abstract).
[doi:10.3969/j.issn.1003-0077.2020.02.001] |
[17] |
Zhang MZ, Fujinuma Y, Graber JB. Exploiting cross-lingual subword similarities in low-resource document classification. In: Proc. of the AAAI Conf. on Artificial Intelligence, Vol. 34. 2020. 9547-9554.
|
[18] |
Clark K, Luong MT, Le QV, Manning CD. Electra: Pre-training text encoders as discriminators rather than generators. In: Proc. of the Int'l Conf. on Learning Representations. 2020.
|
[19] |
Conneau A, Lample G. Cross-lingual language model pretraining. In: Advances in Neural Information Processing Systems. 2019. 7059-7069.
|
[20] |
Conneau A, Khandelwal K, Goyal N, Chaudhary V, Wenzek G, Francisco, Guzmán, Grave E, Ott M, Zettlemoyer L, Stoyanov V. Unsupervised cross-lingual representation learning at scale. In: Proc. of the 58th Annual Meeting of the Association for Computational Linguistics. 2020. 8440-8451.
|
[21] |
Liu YH, Ott M, Goyal N, Du JF, Joshi M, Chen DQ, Levy O, Lewis M, Zettlemoyer L, Stoyanov V. RoBERTa: A robustly optimized BERT pretraining approach. 2019. https://arxiv.org/pdf/1907.11692.pdf
|
[22] |
Fei HL, Li P. Cross-lingual un-supervised sentiment classification with multi-view transfer learning. In: Proc. of the 58th Annual Meeting of the Association for Computational Linguistics. 2020. 5759-5771.
|
[23] |
Chen Z, Qian TY. Transfer capsule network for aspect level sentiment classification. In: Proc. of the 57th Conf. of the Association for Computational Linguistics (ACL). Florence, 2019. 547-556.
|
[24] |
Yao L, Mao CS, Luo Y. Graph convolutional networks for text classification. In: Proc. of the AAAI Conf. on Artificial Intelligence, Vol. 33. 2019. 7370-7377.
|
[25] |
Hu LM, Yang TC, Shi C, Ji HY, Li XL. Heterogeneous graph attention networks for semi-supervised short text classification. In: Proc. of the 2019 Conf. on Empirical Methods in Natural Language Processing and the 9th Int'l Joint Conf. on Natural Language Processing (EMNLP-IJCNLP). Hong Kong: Association for Computational Linguistics, 2019. 4821-4830.
|
[26] |
Ding KZ, Wang JL, Li JD, Li DC, Liu H. Be more with less: Hypergraph attention networks for inductive text classification. In: Proc. of the 2020 Conf. on Empirical Methods in Natural Language Processing (EMNLP). 2020. 4927-4936.
|
[27] |
Zhang YF, Yu XL, Cui ZY, Wu S, Wen ZZ, Wang L. Every document owns its structure: Inductive text classi-fication via graph neural networks. In: Proc. of the 58th Annual Meeting of the Association for Computational Linguistics. 2020. 334-339.
|
[28] |
Wang G, Li HY, Qiu YF, Yu BW, Liu TW. Aspect-based sentiment classification via memory graph convolutional network. Journal of Chinese Information Processing, 2021, 35(8): 98-106(in Chinese with English abstract).
[doi:10.3969/j.issn.1003-0077.2021.08.013] |
[29] |
Li Z, Kumar M, Headden W, Yin B, Wei Y, Zhang Y, Yang Q. Learn to cross-lingual transfer with Meta graph learning across heterogeneous languages. In: Proc. of the 2020 Conf. on Empirical Methods in Natural Language Processing (EMNLP). 2020. 2290-2301.
|
[30] |
Bruna J, Zaremba W, Szlam A, Lecun Y. Spectral networks and locally connected networks on graphs. In: Proc. of the 2nd Int'l Conf. of Learning Represtations. 2014.
|
[31] |
Kipf TN, Welling M. Semi-supervised classification with graph convolutional networks. In: Proc. of the 5th Int'l Conf. on Learning Representations. 2017.
|
[32] |
Veličković P, Cucurull G, Casanova A, Romero A, Liò P, Bengio Y. Graph attention networks. In: Proc. of the Int'l Conf. on Learning Representations. 2018.
|
[12] |
李业刚, 黄河燕, 史树敏, 鉴萍, 苏超. 基于双语协同训练的最大名词短语识别研究. 软件学报, 2015, 26(7): 1615-1625.
http://www.jos.org.cn/1000-9825/4630.htm [doi:10.13328/j.cnki.jos.004630] |
[13] |
王星, 单力秋, 侯磊, 于济凡, 陈吉, 陶明阳. 基于百科语料的中英文双语词典提取. 中文信息学报, 2021, 35(1): 25-33.
https://www.cnki.com.cn/Article/CJFDTOTAL-MESS202101005.htm |
[16] |
彭晓娅, 周栋. 跨语言词向量研究综述. 中文信息学报, 2020, 34(2): 1-15, 26.
[doi:10.3969/j.issn.1003-0077.2020.02.001] |
[28] |
王光, 李鸿宇, 邱云飞, 郁博文, 柳厅文. 基于图卷积记忆网络的方面级情感分类. 中文信息学报, 2021, 35(8): 98-106.
[doi:10.3969/j.issn.1003-0077.2021.08.013] |