百度x量子位 | 最强中文NLP预训练模型艾尼ERNIE官方揭秘

允中 发自 凹非寺

量子位 编辑 | 公众号 QbitAI

“最近刚好在用ERNIE写毕业论文”

“感觉还挺厉害的”

“为什么叫ERNIE啊,这名字有什么深意吗?”

“我想让艾尼帮我写作业”

看了上面热火的讨论,你一定很好奇“艾尼”、“ERNIE”到底是个啥?

自然语言处理( Natural Language Processing ,简称NLP )被誉为人工智能“皇冠上的明珠”。NLP是为各类企业及开发者提供的用于文本分析及挖掘的核心工具,已经广泛应用在电商、文化娱乐、金融、物流等行业客户的多项业务中。

艾尼(ERNIE),可谓是目前NLP领域的最强中文预训练模型。

昨天,百度资深研发工程师龙老师,就通过直播带开发者走近最强中文NLP预训练模型ERNIE,在线上解读了一系列艾尼ERNIE的强大特性,并现场与同为NLP模型的BERT直接PK,让开发者连连感叹,希望能把ERNIE运用到自己的工作与生活之中。

错过了直播没关系,让我们来回顾一下课上都讲了啥~

什么是艾尼(ERINE)?

艾尼(ERNIE)是百度自研的持续学习语义理解框架,该框架支持增量引入词汇( lexical )、语法 ( syntactic ) 、语义( semantic )等3个层次的自定义预训练任务,能够全面捕捉训练语料中的词法、语法、语义等潜在信息。

这些任务通过多任务学习对模型进行训练更新,每当引入新任务时,该框架可在学习该任务的同时,不遗忘之前学到过的知识。这也意味着,该框架可以通过持续构建不同的预训练任务,持续提升模型效果。因此ERNIE具有了更好的语义理解能力。

直播回顾 | 最强中文NLP预训练模型艾尼ERNIE官方揭秘

ERNIE 2.0持续学习语义理解框架

ERNIE好用么?

好不好用,摆事实才知道。

直播环节中,龙老师直接用填空题的形式展示了ERNIE与BERT在填空方面的表现。

例如题目:中国历史上唯一的正统女皇帝是[?][?][?],下面是直播中两种算法的表现:

直播回顾 | 最强中文NLP预训练模型艾尼ERNIE官方揭秘

ERNIE的结果是“武则天”,而BERT的结果是“宋太帝”。ERNIE能输出“武则天”说明它确实能学到“武则天”与“女皇帝”之间的关联。

而BERT输出的“宋太帝”虽然每个字“宋”、“太”、“帝”都与“皇帝”相关,但是连在一起就不是一个完整的词,而且也不能与“女皇帝”的形成照应。

再如,陈晓的妻子是[?][?][?]

直播回顾 | 最强中文NLP预训练模型艾尼ERNIE官方揭秘

ERNIE用答案向我们证明了自己不只懂百科,也懂八卦。

通过上面的DEMO测试,我们也就引出了这样一个问题:

ERNIE和BERT最大的区别是什么?

ERNIE1.0能够充分学习词语、短语、命名实体识别中字与字之间的关系,将其整体进行掩码。而BERT不具备这样的能力。ERNIE2.0则通过持续构造辅助任务让ERNIE进行学习,会的任务越多能力越强大。

这与BERT只靠一两个任务进行预训练的思路是完全不同的。就像小学生做题,一直只练一种题型肯定是不行的,需要多种题型都会做,既要有专项突破也要有综合练习,这样才能成为真正的学霸。

随着多样的训练数据的增加,ERNIE通过持续学习就能够学得越来越好。

ERNIE作为模型,也需要与深度学习框架的深度配合,才能实现最佳的效果。百度开源的深度学习框架飞桨(PaddlePaddle)对ERNIE模型有非常好的定制优化,使得其加速比达到77%,可以说是ERNIE背后的神助攻。

ERNIE借助飞桨 PaddlePaddle 多机分布式训练优势,利用 79亿 tokens 训练数据(约1/4的 XLNet 数据)和64张 V100(约1/8的 XLNet 硬件算力)训练的 ERNIE 2.0预训练模型不仅实现了在中英文16个任务上的最优效果,而且为开发人员定制自己的 NLP 模型提供了方案。

目前,百度开源了 ERNIE 2.0的 Fine-tuning 代码和英文预训练模型。

本次基于艾尼ERNIE的直播,同步在爱奇艺、IT大咖说、BiliBili、虎牙、斗鱼五个平台同步直播,收到了近3W开发者的关注与讨论。

直播回放视频已经上线,欢迎大家继续学习~

回顾ERNIE的原理、优势以及案例,请戳回放视频:http://play.itdks.com/watch/8591895

在9月,ERNIE的线下培训课程也会在北京、深圳、上海三地分别落地,敲重点,课程免费!

— 完 —

版权所有,未经授权不得以任何形式转载及使用,违者必究。