当前位置:网站首页>NLP常用Backbone模型小抄(1)
NLP常用Backbone模型小抄(1)
2022-08-02 22:43:00 【Andy Dennis】
前言
自17年Transformer出现以来,NLP各大工作都出现它的身影。最近,斯坦福还专门为transformer开了一门课程CS25: 【Stanford】CS25 Transformers United | Fall 2021
刚入门NLP的人可以看看我之前写的一篇文章 研0_NLPer启程
对于对应的模型,可以去hugginface的transfomers库看看 transformers/models (github), 可以找到对应模型看看它的源码实现。
现在主要是结合上下文的动态词向量编码技术,很少使用word2vec, glove词表进行静态词向量映射了。
b站一个视频 吹爆!计算机博士【NLP自然语言处理】不愧是清华教授!5小时让我搞定了NLP自然语言处理! (虽然标题有些emm…但是看了一下目录啥的好像还行…
论文
Mass
Bart
T5
Exploring the Limits of Transfer Learning with a Unified
Text-to-Text Transformer
Bert
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
encoder结构。bert家族很多,如蒸馏版本distilBert, 变体Roberta等。
词向量输入构成:

transformer
著名的self-attention就出自这篇文章.
Attention Is All You Need
之前复现过这个模型: transformer结构复现__attention is all you need (pytorch)
encoder-decoder结构:
Attention模块:
边栏推荐
猜你喜欢
随机推荐
工业元宇宙的价值和发展
resubmit 渐进式防重复提交框架简介
你离「TDengine 开发者大会」只差一条 SQL 语句!
Broadcast platform, the use of the node generated captcha image, and validate
用于中文文本分类的中文停用词
HCIP(16)
Jmeter secondary development to realize rsa encryption
today‘s task
00 -- jieba分词
学习基因富集工具DAVID(2)
2022第十一届财经峰会:优炫软件斩获双项大奖
Auto.js实现朋友圈自动点赞
The CTF command execution subject their thinking
HCIP(17)
学习Autodock分子对接
vscode 自定义快捷键——设置eslint
Word operation: adjust the English font individually
APT级全面免杀拿Shell
创建型模式 - 单例模式Singleton
CWE4.8:2022年危害最大的25种软件安全问题









