刷新中文阅读理解水平,哈工大讯飞联合发布基于全词覆盖中文BERT预训练模型

AI科技大本营 2019-06-24 11:42
由于这些模型在不同任务上的表现不一致,我们也给出了若干使用建议,并且希望能够进一步促进中文信息处理的研究与发展。
NLP
44 0 0

收藏 | NLP论文、代码、博客、视频资源(LSTM,指针模型,Attention, ELMo等)

FMI飞马网 2019-06-20 14:24
导读 在近几年,NLP 领域得到了快速的发展,包括 ELMo ,BERT在内的新方法不断涌现,显著提高了模型在一系列任务的表现。在本文中,作者针对主要的 NLP 模型、常用开源机器学习库和多任务学习的相关资源进行了归纳,提供了包括论文、代码、视频和博客在内的多种学习资源。 随着 NLP 领域的不断发展,大量新的机器学习模型出现,ELMo、BERT 等取得了较好的进展。在今天的推荐中,为大家整理了一
NLP
35 0 0

一文详解中英文在NLP上的10大差异点

AI科技大本营 2019-03-26 11:05
笔者对中文和英文语言特点的角度出发,结合自己的从业经验来归纳下两种语言下NLP的异同点。
NLP
470 0 0

香侬科技李纪为:初入NLP领域的一些小建议

AI科技大本营 2019-03-15 11:17
对于全局地了解NLP领域有着极其重要的意义。
NLP
655 0 0

初学者的福利,NLP呕心总结资料包

AI科技大本营 2019-03-06 10:47
收藏
NLP
999 0 2

横扫13项中文NLP记录,中文字型深度学习模型Glyce问世!

数据派THU 2019-03-06 10:47
香侬科技近期提出Glyce,首次在深度学习的框架下使用中文字形信息(Glyph),横扫13项中文自然语言任务记录。
NLP
488 0 0

对话清华NLP实验室刘知远:NLP搞事情少不了知识库与图神经网络

数据派THU 2019-02-27 11:05
我们采访了刘知远教授,他向我们介绍了NLP在过去一年的重要发展历程,以及实验室的重要研究成果与方向。
NLP
232 0 0

自然语言处理中注意力机制综述

一文深入了解自然语言处理中的注意力机制
NLP
840 1 0

自然语言处理中注意力机制综述

人工智能头条 2019-01-29 10:42
本文深入浅出地介绍了近些年的自然语言中的注意力机制包括从起源、变体到评价指标方面。
NLP
569 0 0

从WordEmbedding到Bert模型——自然语言处理预训练技术发展史

AI科技大本营 2019-01-14 11:48
为何说Bert是近年来NLP重大进展的集大成者?
NLP
677 0 1
关注微信公众号