发表评论取消回复
相关阅读
相关 nlp中的对抗训练
[NLP 中的对抗训练(附 PyTorch 实现)博文][NLP _ PyTorch] [NLP 中的对抗训练(附 PyTorch 实现)视频讲解][NLP _ PyTor
相关 NLP对抗训练:PyTorch、Tensorflow
一、定义 `对抗样本`:对输入增加微小扰动得到的样本。旨在增加模型损失。 `对抗训练`:训练模型去区分样例是真实样例还是[对抗样本][Link 1]的过程。对抗训练不仅
相关 NLP(二十六)限定领域的三元组抽取的一次尝试
本文将会介绍笔者在2019语言与智能技术竞赛的三元组抽取比赛方面的一次尝试。由于该比赛早已结束,笔者当时也没有参加这个比赛,因此没有测评成绩,我们也只能拿到训练集和验证集。
相关 NLP(十八)利用ALBERT提升模型预测速度的一次尝试
前沿 在文章[NLP(十七)利用tensorflow-serving部署kashgari模型][NLP_tensorflow-serving_kashgari]中,笔
相关 NLP(十八)利用ALBERT提升模型预测速度的一次尝试
前沿 在文章[NLP(十七)利用tensorflow-serving部署kashgari模型][NLP_tensorflow-serving_kashgari]中,笔
相关 NLP(四十六)常见的损失函数
本文将给出NLP任务中一些常见的损失函数(Loss Function),并使用Keras、PyTorch给出具体例子。 在讲解具体的损失函数之前,我们有必要了解下什
相关 NLP(四十六)对抗训练的一次尝试
初次听说对抗训练是在一次实体识别比赛的赛后分享中,当时的一些概念,比如Focal Loss、对抗训练、模型融合、数据增强等都让我感到新奇,之后笔者自己也做了很多这方面的尝试
相关 NLP(四十二)人物关系分类的再次尝试
两周前的周末,笔者决定对人物关系分类进行再次尝试。 为什么说是再次尝试呢?因为笔者之前已经写过一篇文章[NLP(二十一)人物关系抽取的一次实战][NLP],当时的标
相关 NLP(四十一)使用HuggingFace翻译模型的一次尝试
本文将如何如何使用HuggingFace中的翻译模型。 HuggingFace是NLP领域中响当当的团体,它在预训练模型方面作出了很多接触的工作,并开源了许多预训练
相关 【NLP-新闻文本分类】3 Bert模型的对抗训练
目录 1 引言 2 步骤 2.1 数据集预处理 2.2 用预处理后的数据集训练Bert的语料库 2.3 加载语料库和字
还没有评论,来说两句吧...