当前位置:网站首页>transformer的理解
transformer的理解
2022-07-28 05:22:00 【Alan and fish】
1.二头注意机制
- 引入二头
这里二头注意力机制,其实就是将前面的q,k,v进行细分,分成两个,这样关注的信息就被细化了.
将权重w拆分成wq,1,wq,2两个权重参数,然后将a分别与两个权重参数进行点乘,得到了qq,1和qq,2. - 计算 α \alpha α
这个时候,将q的第一个头与每个k的第一个头进行计算,q的第二个头与k的第二头进行计算,就会得到两个 α \alpha α1, α \alpha α2 - 计算b

后面的步骤就和单头注意力机制是一样的了,区别在于多头注意力机制引入多个头,信息更细分了,要进行多个计算,结果更准确.
2.引入位置信息
注意力机制中存在一个缺陷,就是没有位置信息,所以给注意力机制引入了一个one-hot结构的位置矩阵.
将权重矩阵W拆分成WI和WP,然后与输入值x和位置信息p进行点乘,得到ei和 α \alpha αi
3.transformer框架可视化理解

以机器翻译为例,输入一个机器学习,首先会经过编码,然后再经过解码,得到你想要的信息,tansformer机制就是一个编码和解码的过程.
输入的信息x会与一个one-hot编码的位置信息相结合,然后输入进一个self-attention多头注意力机制.然后将编码的结果作为解码的输入,将输入放到一个masked多头注意力机制,然后在经过self-attention注意力机制,最后经过一系列的操作得到最后的输出.
其中在编码的时候,添加了一个Norm层,Norm和Layer的区别就是,Norm是横向的,Layer是纵向的.
4.通过可视化看看注意力机制的效果

如图所示:
文中的it是一个代词,在这段文本中,it指代的是animal,所以它与animal的依赖更多一点,他们之间的关系线颜色更深.
5.单头注意力机制与多头注意力机制的效果对比

上面绿色的是多头注意力机制,下面红色的是单头注意力机制,从图中可以看出,多头注意力机制关注的信息跟多一些.
边栏推荐
猜你喜欢
随机推荐
小程序开发流程详细是什么呢?
raise RuntimeError(‘DataLoader worker (pid(s) {}) exited unexpectedly‘.format(pids_str))RuntimeErro
Micro service architecture cognition and service governance Eureka
简单理解一下MVC和三层架构
50 MySQL exercises + Answers
Distributed cluster architecture scenario optimization solution: session sharing problem
小程序开发要多少钱?两种开发方法分析!
Flink CDC (MySQL as an example)
It's not easy to travel. You can use digital collections to brush the sense of existence in scenic spots
分布式集群架构场景化解决方案:集群时钟同步问题
数藏如何实现WEB3.0社交
字节Android岗4轮面试,收到 50k*18 Offer,裁员风口下成功破局
【4】 Redis persistence (RDB and AOF)
如何选择小程序开发企业
使用pyhon封装一个定时发送邮件的工具类
Record the problems encountered in online capacity expansion server nochange: partition 1 is size 419428319. It cannot be grown
Books - Sun Tzu's art of war
服务可靠性保障-watchdog
记录下在线扩容服务器遇到的问题 NOCHANGE: partition 1 is size 419428319. it cannot be grown
mysql多表查询









