郑州大学学报(理学版)  2019, Vol. 51 Issue (3): 73-78  DOI: 10.13705/j.issn.1671-6841.2018186

引用本文  

张璐, 殷昊, 李寿山. 基于双语信息和神经网络模型的情绪分类方法[J]. 郑州大学学报(理学版), 2019, 51(3): 73-78.
ZHANG Lu, YIN Hao, LI Shoushan. Emotion Classification Using Bilingual Information and Neural Model[J]. Journal of Zhengzhou University(Natural Science Edition), 2019, 51(3): 73-78.

基金项目

国家自然科学基金项目(61331011,61375073)

通信作者

李寿山(1980—),男,江苏扬州人,教授,主要从事情感分析和自然语言处理研究,E-mail:lishoushan@suda.edu.cn

作者简介

张璐(1994—),女,江苏南通人,硕士研究生,主要从事情感分析和自然语言处理研究,E-mail:zl731278130@163.com

文章历史

收稿日期:2018-06-20
基于双语信息和神经网络模型的情绪分类方法
张璐 , 殷昊 , 李寿山     
苏州大学 自然语言处理实验室 江苏 苏州 215006
摘要:文本情绪分类是自然语言处理研究中的一项基本任务.目前,已有的文本情绪分类研究大都在单语语料上进行,存在已标注样本不足、分类文本较短、信息量少等问题.为了解决上述问题,提出了一种基于双语信息和神经网络模型的情绪分类方法.首先, 利用机器翻译工具对源语料进行翻译得到翻译语料;其次,将对应语言的语料进行合并,得到两组不同语言的语料;最后,将文本分别使用源语言和翻译语言进行特征表示,建立双通道长短期记忆(long short-term memory, LSTM)网络模型融合两组特征,并构建情绪分类器.实验结果表明该方法能够稳定提升文本情绪分类的性能.
关键词情绪分类    双语信息    融合特征    
Emotion Classification Using Bilingual Information and Neural Model
ZHANG Lu , YIN Hao , LI Shoushan     
Natural Language Processing Lab, Soochow University, Suzhou 215006, China
Abstract: Emotion classification was a fundamental learning task in natural language processing. In all existing studies, emotion classification was performed using monolingual information. Due to the challerge of scarity challenge and the limited information in short text, an approach to emotion classification based on bilingual information was proposed. Specially, a machine translation tool was adopted for both Chinese-to-English and English-to-Chinese translation. Then, these corpora were merged according to the language. Finally, a two-channel LSTM model was used to leverage both Chinese and English features. The effectiveness of the proposed approach to emotion classification was demonstrated by empirical studies.
Key words: emotion classification    bilingual information    fusion feature    
0 引言

随着社交网络的迅速发展,越来越多的用户倾向于在以微博为代表的社交媒体中表达自己的观点或情感,每天数以亿计的微博文本涉及时事政治、社会热点、科技、娱乐等生活的方方面面.为了挖掘与分析这些海量的具有潜在价值的信息,情感分析正渐渐发展成为自然语言处理中的热点研究[1].

情感分析又称意见挖掘、观点分析等,是通过计算机帮助用户快速获取、整理互联网上的海量主观评价信息,对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程[2].文本情绪分类是情感分析的一项基本任务,该任务旨在根据文本表达的个人情绪(高兴、伤心、愤怒等)对文本进行自动分类[3].由于用户之间本身存在着喜好、立场、出发点等诸多方面的差异,因此对生活中的各种事件和现象所表现出的情绪和态度也会有很显著的差异.迄今为止,文本情绪分析已经被应用在多个领域,比如股票市场[4]、在线聊天[5]以及新闻分类[6]等.

传统的情绪分类方法通常需要充足的人工标注语料,但是到目前为止,与情绪相关的公共语料库相对匮乏,获得这样的标注数据费时费力.社交文本还存在文本较短、信息量较少等问题.考虑到已有的文本情绪分类方法都是基于单语语料,我们尝试利用翻译语料对语料库进行扩充,并为情绪分类提供更多的信息量.

例1   源文本:今天大甩卖!我们去逛街吧~

翻译文本:There′s a big sale on today! Let′s go shopping.

例2   源文本:To show off! This Gundam model looks nice.

翻译文本:来炫耀!这个高达模型看起来不错.

由于中文微博情绪语料库的匮乏,例1中的“大甩卖”没有在训练集中出现,那么它很难被正确分类,但是如果我们把它翻译成英文“big sale”,这样我们就可以利用英文Twitter情绪语料中的信息来弥补这一点.类似地,例2中的“show off”没有在训练集中出现,但是如果我们把它翻译成中文“炫耀”,那么就可以利用中文微博情绪语料中的信息增加信息量.

我们提出了一种基于双语信息和神经网络模型的情绪分类方法,同时利用中文微博语料和英文Twitter语料对模型进行训练.首先,利用机器翻译工具分别对两种源语言语料进行翻译,得到相应的翻译语料;其次,将相应语言的语料进行合并扩充,得到两组不同语言类型的语料;最后,将文本分别使用源语言和翻译语言进行特征表示,建立双通道LSTM模型融合两组特征,构建情绪分类器.

1 相关工作

目前,针对社交媒体的文本情感分析方法研究大都面向情感极性(正面、负面)[7],而细粒度的情绪分类方法研究还比较缺乏.

早期的一些研究利用规则来判别情绪类别,Kozareva等[8]基于统计方法,利用上下文词语与情绪关键词的共现关系对文本进行情绪分类.一般而言,情绪分类会被定义为一个机器学习问题.Tokuhisa等[9]提出了一种面向数据的方法,推断对话系统中说话者表达的情绪.Beck等[10]提出了一个基于多任务高斯过程的方法对情绪进行分类.Bhowmick等[11]利用多标签K近邻分类技术对新闻句子进行分类.Das等[12]利用弱势语言(孟加拉语)博客语料进行情绪分类,首先对句子的词汇进行6类情绪分类,再通过词汇的情绪类别来判断句子的情绪.Li等[13]提出利用句子的标签因子图和上下文标签因子图进行句子级的情绪分类,很好地解决了数据稀疏和情绪多标签问题.Xu等[14]提出了一种由粗粒度到细粒度的分析策略,通过整合相邻句子的转移概率来重新定义情绪的类别.Yang等[15]介绍了一种基于情绪的主题模型为预先定义的情绪构建了一个特定领域的词典.

以上这些情绪分类方法都需要利用充足的标注数据来训练模型,但是在很多情况下,获得这样的标注数据费时费力.有些研究通过半监督方法来解决这个问题,Liu等[6]提出了一种协同学习算法,利用未标注数据中的信息提升情绪分类的性能.Li等[16]提出了一个双视图标签传播算法,将源文本和回复文本分别看作两个视图.

2 基于双语信息和神经网络模型的情绪分类方法

传统的情绪分类方法都是基于单语语料进行,虽然情绪分类研究已开展多年,但是情绪语料库的构建工作相对较少,可用于研究的情绪语料库也比较缺乏[17].对于情绪分类任务来说,标注语料将会耗费大量的人力物力,并且各个情绪类别的样本分布很不平衡,影响情绪分类的性能.

2.1 机器翻译

为了同时利用中文微博语料和英文Twitter语料,我们用机器翻译工具(http://fanyi.baidu.com/translate)对源语料进行翻译得到翻译语料,即将中文微博语料翻译得到英文微博语料;英文Twitter语料翻译得到中文Twitter语料.图 1的机器翻译模块展示了训练过程中机器翻译的流程.

图 1 基于双语信息和神经网络模型的情绪分类方法 Fig. 1 The approach to emotion classification based on bilingual information and neural model
2.2 基于双语信息和神经网络模型的情绪分类方法

为了能够充分利用双语信息,我们提出了一种基于多通道LSTM神经网络的情绪分类方法.我们将源语料和翻译语料进行合并,得到两组不同语言类型的语料,即将中文微博语料与中文Twitter语料合并得到中文混合语料,英文Twitter语料与英文微博语料合并得到英文混合语料.我们将分类文本分别使用中文、英文进行特征表示,使用LSTM[18]神经网络提取隐层特征,所用公式为

$ \boldsymbol{h}_{\text { Chinese }}=L S T M\left(\boldsymbol{T}_{\text { Chinese }}\right), $ (1)
$ \boldsymbol{h}_{\text { English }}=L S T M\left(\boldsymbol{T}_{\text { English }}\right). $ (2)

其中:TChineseTEnglish分别代表中文和英文特征表示.

在模型的merge层中,我们将上述两组隐层特征进行特征融合,具体融合公式为

$ \boldsymbol{h}_{\text { merge }}=\boldsymbol{h}_{\text { Chinese }} \oplus \boldsymbol{h}_{\text { English }}, $ (3)

其中:⊕表示向量逐元素相加或者向量拼接.本文对两种融合方式都进行了探索.

在情绪分类模块中,我们将融合特征hmerge作为全连接层的输入,为了缓解过拟合,全连接层使用了Relu激活函数,具体公式为

$ \boldsymbol{h}_{\text { dense }}=\operatorname{Relu}\left(\boldsymbol{W}_{\text { dense } } \cdot \boldsymbol{h}_{\text { merge }}+\boldsymbol{b}_{\text { dense }}\right), $ (4)

其中:Wdensebdense分别是全连接层的权重和偏置.Relu激活函数能够将小于0的值全部置0,具有引导适度稀疏,缓解过拟合的作用.模型的最后是Softmax层,用来输出分类概率,所用公式为

$ \boldsymbol{p}\left(y | \boldsymbol{T}_{\text { Chinese }}, \boldsymbol{T}_{\text { English }}\right)=\operatorname{Softmax}\left(\boldsymbol{W}_{\mathrm{o}} \cdot \boldsymbol{h}_{\text { dense }}+\boldsymbol{b}_{\mathrm{o}}\right), $ (5)

其中:Wobo是输出层的权重和偏置;p(y|TChinese, TEnglish)是当前样本的分类概率.

我们选用交叉熵损失函数作为模型的损失函数,其公式为

$ \boldsymbol{J}(\boldsymbol{\theta})=-\sum\limits_{i=1}^{N} \sum\limits_{j=1}^{c} y^{j} \log \boldsymbol{p}\left(y^{j} | \boldsymbol{T}_{\text { Chinese }}^{i}, \boldsymbol{T}_{\text { English }}^{i}\right)+\frac{l}{2}\|\theta\|_{2}^{2}, $ (6)

其中:N是训练样本的数目;C是目标类别的数目;yj表示属于第j个类别的概率;l是正则化系数;θ代表所有参数.我们采用Adam优化算法[19]对参数进行更新.

3 实验 3.1 实验设置

本实验使用的中文语料来自新浪微博,由NLP&CC-2013中文微博情绪分析评测提供,英文语料来自Twitter,由SemEval-2018 Task 1: Affect in Tweets提供.中文语料对应7个情绪类别,分别是高兴、喜好、愤怒、悲伤、恐惧、厌恶和惊讶,样本数量分别为1 460、2 203、669、1 173、148、1 392、362.英文语料对应4个情绪类别,分别是愤怒、恐惧、高兴和悲伤,样本数量分别为1 901、2 452、1 816、1 733.对于中文语料,由于恐惧情绪的样本数量太少,根据其样本数生成测试集得到的实验结果具有较大的偶然性,因此我们选取第二少类别(惊讶情绪)样本数的20%(即362*20%≈72)作为各情绪类别的测试样本数.训练样本则从各类别的剩余样本中抽取.对于英文语料,我们分别从各个类别中选取200个样本作为测试集,剩余样本都作为训练集.由于中英文语料类别不一致,所以我们仅对类别相同的部分进行扩充.

我们首先使用复旦大学发布的分词工具FudanNLP对中文语料进行分词,英文语料则按空格进行切分,然后使用word2vec训练词的分布式表示,词向量维度设置为100.实验中使用的分类算法包括最大熵和LSTM神经网络,其中最大熵使用Mallet机器学习工具包,LSTM神经网络使用深度学习框架Keras,LSTM层的输出维度为256,全连接层的输出维度为128,迭代次数为20.我们采用正确率和F1值作为衡量分类性能的评价指标.

3.2 实验结果

为了验证基于双语信息的情绪分类方法的有效性,我们实现了以下几种情绪分类方法.

1) 基准方法+最大熵(Baseline_maxent).直接使用源语言的训练集训练最大熵分类器,对相应语言类型的测试集进行测试.

2) 基准方法+LSTM(Baseline_lstm).直接使用源语言的训练集训练LSTM分类器,对相应语言类型的测试集进行测试.

3) 语料库扩充+最大熵(CorpusExp_maxent).通过机器翻译对中英文语料进行翻译,从而实现训练语料的扩充.使用扩充后的训练集训练最大熵分类器,对相应语言的测试集进行测试.

4) 语料库扩充+LSTM(CorpusExp_lstm).通过机器翻译对中英文语料进行翻译,从而实现训练语料的扩充.使用扩充后的训练集训练LSTM分类器,对相应语言的测试集进行测试.

5) 基于双语信息的情绪分类方法:隐层拼接(Bilingual-concat).使用本文提出的基于双语信息的情绪分类方法,其中隐层向量通过拼接方式融合.

6) 基于双语信息的情绪分类方法:隐层相加(Bilingual-sum).使用本文提出的基于双语信息的情绪分类方法,其中隐层向量通过按位相加方式融合.

图 2比较了几种情绪分类方法在中文测试集和英文测试集上的情绪分类性能.通过比较Baseline-maxent和Baseline-lstm以及CorpusExp_maxent和CorpusExp_lstm,我们发现LSTM分类器的性能整体上略优于最大熵分类器.

图 2 中文和英文测试集上不同情绪分类方法的性能比较 Fig. 2 The results of different classification methods on weibo and Twitter

为了验证通过机器翻译实现语料扩充对分类性能的影响,我们比较了语料库扩充方法与基准方法(Baseline_maxent和CorpusExp_maxent以及Baseline_lstm和CorpusExp_lstm).在中文测试集上,正确率分别提高了0.6%和1%;在英文语料上,正确率分别提高了1.5%和2.4%.上述数据表明,通过翻译语料扩充训练样本能够一定程度上提高情绪分类的性能.

为了验证使用双语信息对情绪分类性能的影响,我们比较了基于双语信息的情绪分类方法和语料库扩充+LSTM方法(CorpusExp_lstm)的实验性能.在中文测试集上,当隐层向量拼接融合(Bilingual-concat)时,正确率提高了2.8%;当隐层向量按位相加融合(Bilingual-sum)时,正确率提高了3%.在英文测试集上,当隐层向量拼接融合(Bilingual-concat)时,正确率提高了1.2%;当隐层向量按位相加融合(Bilingual-sum)时,正确率提高了1.4%.以上数据表明,融合文本的双语信息能够增加文本的信息量,提高情绪分类性能.

最后,我们比较了基于双语信息的情绪分类方法与基准方法+LSTM方法(Baseline_lstm)的实验性能.在中文测试集上,当隐层向量拼接融合(Bilingual-concat)时,正确率提高了3.8%;当隐层向量按位相加融合(Bilingual-sum)时, 正确率提高了4%.在英文测试集上,当隐层向量拼接融合(Bilingual-concat)时,正确率提高了3.6%;当隐层向量按位相加融合(Bilingual-sum)时, 正确率提高了3.8%.实验结果表明,我们提出的基于双语信息的情绪分类方法既能够通过机器翻译扩充训练样本,又能够增加单个文本的分类信息,不管在中文测试集还是英文测试集上都能够显著提高情绪分类的性能,充分验证了该方法的有效性.

此外,为了更细致地比较各情绪分类方法的性能,我们分析了以上几种情绪分类方法在各情绪类别上的F1值,如表 1表 2所示.从表 1表 2中可以看出,基于双语信息的情绪分类方法在各情绪类别的F1值上总体是有提升的.从F1值的宏平均也可以看出,基于双语信息的情绪分类方法在使用隐层拼接融合和按位相加融合时,分类性能都明显优于其他方法.

表 1 中文语料上各情绪类别的F1值 Tab. 1 The F1 scores of different classification methods on weibo

表 2 英文语料上各情绪类别的F1值 Tab. 2 The F1 scores of different classification methods on Twitter
4 结论

本文针对文本情绪分类任务中已标注样本不足和分类文本较短、信息量少的问题,提出了一种基于双语信息的情绪分类方法.该方法既能够通过机器翻译扩充语料,又能够融合分类文本的中英文特征表示,增加分类文本的信息.实验结果表明,该方法能够充分利用训练样本,不管在微博语料还是Twitter语料上的性能都明显优于传统方法.

在下一步工作中,我们将探索中文与其他语言(德语、日语等)的融合,以此来验证我们方法的有效性.此外,我们可以实现基于多语信息的情绪分类方法,将多组不同语言领域的语料融合,同时提升各语言领域的情绪分类性能.

参考文献
[1]
JIANG L, YU M, ZHOU M, et al. Target-dependent twitter sentiment classification[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics. Portland, 2011: 151-160. (0)
[2]
赵妍妍, 秦兵, 刘挺. 文本情感分析[J]. 软件学报, 2010, 21(8): 1834-1848. (0)
[3]
SAIMA A M, SZPAKOWICZ S. Identifying expressions of emotion in text[M]. Berlin: Springer, 2007: 196-205. (0)
[4]
BOLLEN J, MAO H N, ZENG X J. Twitter mood predicts the stock market[J]. Journal of computational science, 2011, 2(1): 1-8. (0)
[5]
GALIK M, RANK S. Modelling emotional trajectories of individuals in an online chat[M]. Berlin: Springer, 2012: 96-105. (0)
[6]
LIU H H, LI S S, ZHOU G D, et al. Joint modeling of news reader′s and comment writer′s emotions[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics. Sofia, 2013: 511-515. https://www.researchgate.net/publication/270878820_Joint_Modeling_of_News_Reader's_and_Comment_Writer's_Emotions (0)
[7]
潘云仙, 袁方. 基于JST模型的新闻文本的情感分类研究[J]. 郑州大学学报(理学版), 2015, 47(1): 64-68. DOI:10.3969/j.issn.1671-6841.2015.01.014 (0)
[8]
KOZAREVA Z, NAVARRO B, VAZQUEZ S, et al. Ua-Zbsa: a headline emotion classification through web information[C]//Proceedings of the 4th International Workshop on Semantic Evaluation. Prague, 2007: 334-337. https://www.researchgate.net/publication/228629707_UA-ZBSA_A_headline_emotion_classification_through_Web_information (0)
[9]
TOKUHISA R, INUI K, MATSUMOTO Y. Emotion classification using massive examples extracted from the web[C]//Proceedings of the 22nd International Conference on Computational Linguistics. Manchester, 2008: 881-888. https://www.aclweb.org/anthology/C08-1111 (0)
[10]
BECK D, COHN T, SPECIA L. Joint emotion analysis via multi-task gaussian processes[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Doha, 2014: 1798-1803. https://www.researchgate.net/publication/301405007_Joint_Emotion_Analysis_via_Multi-task_Gaussian_Processes (0)
[11]
BHOWMICK P, BASU A, MITRA P, et al. Multi-label text classification approach for sentence level news emotion analysis[M]. Berlin: Springer, 2009: 261-266. (0)
[12]
DAS D, BANDYOPADHYAY S. Sentence level emotion tagging on blog and news corpora[J]. Journal of intelligent systems, 2010, 19(2): 145-162. (0)
[13]
LI S S, HUANG L, WANG R, et al. Sentence-level emotion classification with label and context dependence[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics. Beijing, 2015: 1045-1053. http://nlp.suda.edu.cn/~lishoushan/my_papers/Sentence-level%20Emotion%20Classification%20with%20Label%20and%20Context%20Dependence.pdf (0)
[14]
XU J, XU R F, LU Q, et al. Coarse-to-fine sentence-level emotion classification based on the intra-sentence features and sentential context[C]//Proceedings of the 21st ACM International Conference on Information and Knowledge Management. Maui, 2012: 2455-2458. https://www4.comp.polyu.edu.hk/~csluqin/paper12CIKMp2455.pdf (0)
[15]
YANG M, PENG B L, CHEN Z, et al. A topic model for building fine-grained domain-specific emotion lexicon[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Baltimore, 2014: 421-426. http://acl2014.org/acl2014/P14-2/xml/P14-2069.xhtml (0)
[16]
LI S S, XU J, ZHANG D, et al. Two-view label propagation to semi-supervised reader emotion classification[C]//Proceedings of the 26th International Conference on Computational Linguistics. Osaka, 2016: 2647-2655. (0)
[17]
周胜臣, 瞿文婷, 石英子, 等. 中文微博情感分析研究综述[J]. 计算机应用与软件, 2013, 30(3): 161-164. DOI:10.3969/j.issn.1000-386x.2013.03.043 (0)
[18]
HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735-1780. (0)
[19]
KINGMA D, BA J. Adam: a method for stochastic optimization [C]//Proceedings of the 3rd International Conference on Learning Representations. San Diego, 2015: 1-15. (0)