昭通网_昭通热线网ztrxw.cn

昭通热线网广告位出租好餐具赚取积分
发表于: 2019-5-14 14:56:22 | 只看该作者 |只看大图 |倒序浏览

2018年8月-12月,由美团点评、立异 工厂 、搜狗、美图联合主办的“AI Challenger 2018全球AI挑战赛”历经三个多月的激烈角逐,冠军团队从来自全球81个国度 、1000多所年夜 学和公司的过万支参赛团队中脱颖而出。其中“后厂村静静”团队-由卒业 于北京年夜 学的程惠阁(现已入职美团点评)单人组队,勇夺“细粒度用户评论情感分类”赛道的冠军。本文系程惠阁对于本次参赛的思路总结和经验分享,希望对年夜 家能够有所赞助 和启发。




配景

在2018全球AI挑战赛中,美团点评主要负责了其中两个颇具挑战的主赛道赛题:细粒度用户评论情感剖析 和无人驾驶视觉感知。其中NLP中心负责的细粒度用户评论情感剖析 赛道,最受欢迎,参赛部队 报名数量最多,约占整个报名团队的五分之一。

细粒度用户评论情感剖析 赛道提供了6年夜 类、20个细分类的中文情感评论数据,标注范围 难度之年夜 ,在NLP语料特别是文天职 类相关语料中都属于相当罕有 ,这份数据有着极其重要的科研学术以及工业应用价值(目前在年夜 众点评App已经可以看到20个类其余 情感标签了)。

1. 对象 介绍

在本次竞赛 中,采取 了自己开发的一个训练框架,来统一处理  TensorFlow和PyTorch的模型。在模型代码应用方面,主要基于香港科技年夜 学开源的RNet和MnemonicReader做了相应修改。在竞赛 后期,还加入了一个基于BERT的模型,从而提升了一些集成的效果。

2. 整体思路

整体将该问题看作20个Aspect的情感多分类问题,采取 了传统的文天职 类办法 ,基于LSTM建模文本,End2End多Aspect统一训练。

文天职 类是业界一个较为成熟的问题,在2018年2月份,我加入 了Kaggle的“作弊文天职 类”竞赛 ,其时 的冠军团队主要依靠基于翻译的数据增强办法 获得了胜利 。2018年反作弊工作中的一些实践经验,让我意识到,数据是提升文天职 类效果的第一症结 。因此,我第一时间在网络上寻找到了较年夜 范围 的年夜 众点评评论语料,在Kaggle竞赛 的时候,NLP的语言模型预训练还没有涌现 ,而随着ELMo之类模型的胜利 ,也很期待测验考试 一下预训练语言模型在这个数据集合上的整体效果。

3. 基础模型思路

首先,测验考试 了不使用预训练语言模型的基础模型,基于Kaggle Toxic竞赛 的经验,直接使用了其时 表示 最好的LSTM Encode + Pooling作为基线模型。在Kaggle的竞赛 中,年夜 家实验的普遍结果是针对中长文本的分类任务的最佳单模型,都是基于RNN(LSTM/GRU)或者部分  基于RNN的模型,比如  RCNN、Capsule + RNN这样的模型,而其他的模型,比如  纯真 的CNN结构相对表示 较差,主要可能是因为RNN模型能更好地捕获  相对较长距离的顺序信息。




4. 模型层面优化

在基线模型的基础上,效仿阅读理解常见的做法,增加了Self Attention层(计算文本到文本自身的Attention权重),并将Attention之后的输出和原始LSTM输出,采取 Gate(RNet)或者Semantic Fusion(MnemonicReader)的方法 进行融合。




5. 模型细节处理  

更宽的参数更多的模型效果更好
    LSTM效果好于GRU。Hidden size 400 > 200 > 100。Topk Pooling + Attention Pooling的效果好于零丁 的Max或者Attention Pooling。共享层前置,Pooling层 和最后Fc层不合  aspect参数独有 效果更好(来自赛后实验,以及其他团队经验)。

这里推测主要原因:是这个数据集有20个Aspect,每个Aspect分4个不合  的类别,所需要的参数相对较多。

三角学习率调节效果最佳
    参考BERT开源代码的学习率设置带来较年夜 效果提升。

采取 Word + Char的词建模方法
    这种建模方法 能结合分词和字符粒度切分的利益 ,最年夜 限度避免词汇UNK带来的损失。注意比较 Kaggle Toxic竞赛 那次竞赛 是英文语料,对应英文,其时 的实验结果是Word + Ngram的建模效果更好,收敛更快,所以针对不合  NLP任务,我们需要具体进行剖析 。

采取 尽可能年夜 的词表

和其他团队相比,我采取 了更年夜 的词表14.4W(Jieba分词),19.8W(Sentence Piece Unigram分词),依靠外部年夜 众点评评论数据基于fastText预训练词向量,能够支持更年夜 的词表。同时为了避免训练过拟合,采取 了只Finetune训练中高频的词对低频词固定词向量的处理  方法 。

最开始,预计情感相关的词汇相对较少,不需要较年夜 的词表,然则 实验进程 中发明 更年夜 的词表相对地能够提升性能,前提是利用较多的外部数据去比较  好的刻画训练数据中低频词的向量。在理论上,我们可以采取 一个尽可能年夜 的词表在预测进程 中去尽可能的减少UNK的存在(有论文的结论是对应UNK不合  的词赋于不合  随机向量效果,好于一个固定的UNK向量。这里类似,如果我们付与 一个基于无监督外部数据,通过语言模型训练获得 的向量则效果更好)。

6. 预训练语言模型

这部分  是模型效果提升的症结 ,这里采取 了ELMo Loss。在简单测验考试 了官方的ELMo版本之后,感到 速度相比较 较  慢,为此,采取 了自己实现的一个简化版的ELMo,实质上只使用了ELMo的Loss部分  。

在当前双层LSTM Encoder的基础上,采取 了最小价值 的ELMo引入,也就是对当前模型的第一层LSTM进行基于ELMo Loss的预训练,而Finetune的时候,模型结构和之前完全不变,只是第一层LSTM以及词向量部分  采取 的ELMo预训练的初始化结果,另外在ELMo的训练进程 中,也采取 了基于fastText的词向量参数初始化。这个设计使得ELMo训练以及Finetune训练的收敛,都加快了很多,只需要年夜 概1小时的ELMo训练,就能在下游任务产生  明显受益。值得一提的是,ELMo和Self Attention的搭配在这个数据集合效果异常 好。







7. 模型集成

为了取得更好的模型多样性,采取 了多种粒度的分词方法 ,在Jieba分词的主要模型基础上,同时引入了基于SentencePiece的多种粒度分词。SentencePiece分词能带来更短的句子长度,然则 分词毛病 相对Jieba略多,容易过拟合,因此采取 了只Finetune Char向量,固定词向量的策略来避免过拟合。多种粒度的分词配合Word + Char的建模方法 带来了很好的模型多样性。

此外,模型维度的多样性来源自RNet结构和MnemonicReader结构,以及BERT模型的结构的不合  。

在模型选择的时候选取了平均F1值最优的轮次模型,集成的时候采取 了按Aspect效果离开 加权集成的方法 (权重来自Valid数据的F1分值排序)。基于以上的多样性策略,只需要7个单模型集造诣 能取得较好的效果。

8. 关于BERT

在实验中基于Char的BERT单模型,在本次竞赛 中并没有取得比ELMo更好的效果,受限于512的长度和只基于Char的限制,目前看起来BERT模型在这个数据集合更容易过拟合,Train Loss下降较快,对应Valid Loss效果变差。相信通过适当的优化BERT模型能取得更好的效果。

9. 后续优化
    F1的优化是一个有意思的偏向 。本次竞赛 中,没有对此做特殊处理  ,考虑到F1是一个全局优化值,如果基于Batch强化学习,每个Batch可能很难拟合稀有样天职 布。BERT的进一步优化。因为BERT涌现 之前,基于Transformer的模型在长文天职 类效果年夜 都是差于基于LSTM的模型的,所以如果我们依照 BERT的Loss去预训练基于LSTM而不是Transformer的模型,在分类问题层面的效果如何?另外,在这个数据集合基于Transformer的BERT,能否取得比ELMo更好的分类效果?

对话AI Challenger 2018冠军:程惠阁

Q:谈谈对本次参赛的感触感染 ?

程惠阁:作为一个多年的算法从业者,我真实的感触感染 到在AI时代,技术更新异常 之快,比如  席卷而来的ELMo、BERT等预训练语言模型在工业界影响力之年夜 。包含 美团在内的很多公司都快速跟进并上线,并且 取得了很好收益,因此技术人员时刻坚持 学习的心态是异常 重要的。

而竞赛 和工作存在很年夜 的不合  ,竞赛 相对加倍 纯真 明确,竞赛 可以使我在最短时间去学习实验验证一些新的技术,而在标准  数据集合验证有效的模型策略,往往在工作中也有实际的价值。对于竞赛 以及工作中的模型开发,我觉得比较  重要的一点首先要做好细致的模型验证部分  ,在此基础上逐步开发迭代模型才有意义。比如  在这次竞赛 中,我从一开始就监控了包含 整体以及各个Aspect的包含 F1、AUC、Loss等等各项指标。

Q:对学习算法的新同学有哪些建议?

程惠阁:如果有时间,可以系统地学习一些名校的深度学习相关的课程,还有很重要的一点,就是实践,我们可以加入 去学校项目或者去年夜 公司实习,当然也可以利用AI Challenger、Kaggle这样的竞赛平台进行实践。

Q:为什么会选择加入 细粒度用户评论情感分类这个赛道?

程惠阁:因为我之前加入 过类似的竞赛 ,并且  做过文天职 类相关的工作,对这个赛道的赛题也比较  感兴趣。

Q:本次竞赛 最有造诣 感的事情是什么?

程惠阁:赓续 迭代提升效果带来的造诣 感吧,特别是简化版ELMo带来的效果提升。

Q:参赛进程 中,有哪些收获和成长?

程惠阁:作为一个TensorFlow重度用户,我学会了使用PyTorch并且  体验到PyTorch带来的优雅与高效。体验到了预训练语言模型的威力。在竞赛 中和竞赛 后,我也收获了很多志同道合的朋友,和他们的交流学习,也赞助 我提高了很多。

更重要的是,因为这次竞赛 ,我加入了美团点评这个年夜 家庭,入职这段时间,让我真切地感触感染 到美团点评为了提升用户体验,为了让用户吃的更好,生活更好,在技术方面做了年夜 量的投入。


文章来源:今日头条(昭通热线网www.ztrxw.cn版权与免责声明:1.本网转载其他媒体,目的在于传递信息,并不代表赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。2.如本网所转载稿件涉及版权等问题,请著作权或版权拥有机构致电或来函与本网联系,本网将在第一时间处理妥当。如有侵犯您的名誉权或其他权利,亦请及时通知本网。电话:0870-2156588 邮箱:信箱:569098112@qq.com。本网在审慎确认后,将即刻予以删除。3.本网原创文章未经允许,私自转载者本网保留追究其版权责任的权利。转载请注明来源昭通热线网www.ztrxw.cn)



上一篇:“好男人的心里,老婆才是第一位”这是一个已婚男人的心里话
下一篇:10种让情感 保鲜的技巧,情感专家:做到一半就不错了
跳转到指定楼层
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友 微信微信易信易信
收藏收藏 转播转播 分享分享 支持支持 反对反对
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


昭通热线网商务合作QQ

625134853 QQ群169427445

昭通装修建材网官方微信

扫描二维码,免费发布装修建材信息

昭通人才招聘网官网

发布招聘信息就上昭通人才招聘网 交流群QQ :115912447

展开

手机版|小黑屋|公司简介|  滇ICP备15005425号-1 js??

GMT+8, 2024-11-15 11:18 Powered by 昭通热线网 X3.2

昭通网_昭通热线网ztrxw.cn © 2011-2018 昭通网

快速回复 返回顶部 返回列表