0%

  BLEU (Bilingual Evaluation Understudy), 其意思是双语评估替补。该指标首次提出是用于对机器翻译结果的评估,但是后来越来越多地用于对各种自然语言处理任务的评估。在某些任务中,虽然bleu值不是一个很完美的评估指标,但是由于其计算简单且快速,不需要人工评估,所以对于这些任务还是能够提供一定指导意义的。本文只介绍bleu定义及nltk的使用。

阅读全文 »

环境依赖

  本文记录下个人博客搭建的过程,是在mac系统搭建的博客,而且强依赖于github。默认需要以下条件都准备好了。搭建完成后的效果可以参考这里

  • brew,mac系统的安装包管理,具体安装可以参考网上教程
  • github账号,而且熟悉基本的git操作
    阅读全文 »


论文简介

  这篇论文发现当前的BERT是没有充分训练的,如果经过好好调参的话,BERT是可以比后BERT时代的模型效果要好的。而且由于训练是很耗费资源和时间的,所以很多预训练模型都无法进行系统的比较。
  本论文对于BERT的改进主要有以下几点:1、在更多数据上进行更长时间的训练,同时采用更大的batch;2、去除NSP任务;3、在更长句子维度上进行训练;4、在训练过程中动态调整mask。同时收集了一个新的数据集(CC-NEWS)。

阅读全文 »


论文简介

  在预训练的时候,通过增大模型大小可以有效提升模型在下游任务的表现,但是模型大小会受到GPU/TPU内存大小和训练时间的限制。为了解决这些问题,我们提出了两个降低模型参数的方法来降低BERT的内存占用以及提升训练速度。实验表明我们模型比原有BERT模型规模更小,同时我们使用了自监督损失来建模句子内部的相关性,能够有效提升模型在具有多个句子输入的下游任务的效果。在具有更少参数的情况下,我们的模型在多个任务建立了SOTA的效果。

阅读全文 »