发表评论取消回复
相关阅读
相关 NLP-模型压缩-知识蒸馏:TextBrewer工具包
TextBrewer是一个基于PyTorch的、为实现NLP中的知识蒸馏任务而设计的工具包, 融合并改进了NLP和CV中的多种知识蒸馏技术,提供便捷快速的知识蒸馏框架, 用于以
相关 知识蒸馏系列(二):知识蒸馏的迁移学习应用
知识蒸馏系列文章继续更新啦!在[上一篇文章][Link 1]中,我们介绍了三类基础知识蒸馏算法,今天我们一起来学习知识蒸馏的迁移学习应用。 1. 前言 1.1 迁移学
相关 知识蒸馏系列(三):使用 MMRazor 实现知识蒸馏算法
知识蒸馏系列文章继续更新啦!在之前的文章中,我们介绍了[三类基础知识蒸馏算法][Link 1]以及[知识蒸馏的迁移学习应用][Link 2]。今天我们一起来学习如何使用 MMR
相关 知识蒸馏系列:蒸馏算法【标准蒸馏、DML蒸馏(互学习蒸馏)、CML蒸馏(协同互学习蒸馏)、U-DML蒸馏(统一互学习蒸馏)】
知识蒸馏(Knowledge Distillation,简记为 KD)是一种经典的模型压缩方法,核心思想是通过引导轻量化的学生模型“模仿”性能更好、结构更复杂的教师模型(或多模
相关 系统学习NLP(三十)--词向量对齐
这块,也可以参考facebook的[https://www.jiqizhixin.com/articles/under-the-hood-multilingual-embedd
相关 系统学习NLP(二十九)--BERT
补充一份细节的理解:[https://zhuanlan.zhihu.com/p/74090249][https_zhuanlan.zhihu.com_p_74090249]
相关 系统学习NLP(二十七)--EMLo
论文:[Deep contextualized word representations][] 参考:[https://www.cnblogs.com/huangyc/p/9
相关 系统学习NLP(三十二)--BERT、XLNet、RoBERTa、ALBERT及知识蒸馏
参考:[https://zhuanlan.zhihu.com/p/84559048][https_zhuanlan.zhihu.com_p_84559048] 一.BERT
相关 系统学习NLP(二十三)--浅谈Attention机制的理解
转自:[https://zhuanlan.zhihu.com/p/35571412][https_zhuanlan.zhihu.com_p_35571412] Attent
相关 系统学习NLP(二十六)--BERT详解
转自:[https://zhuanlan.zhihu.com/p/48612853][https_zhuanlan.zhihu.com_p_48612853] 前言 B
还没有评论,来说两句吧...