当前位置:网站首页>Q-Learning笔记
Q-Learning笔记
2022-06-30 10:05:00 【显哥无敌】
emmmmm,被迫强化学习
强化学习的思想其实很好理解啦,通过不断和环境交互,来修正agent的行为,得到agent在不同state下应该采取什么action,来得到最大化的收益。
这里强推一下这个知乎博主
https://www.zhihu.com/column/c_1215667894253830144
真的是用大白话把我给讲懂了,搜别的动不动上来这个公式那个理论的,真的是一脸懵逼。。。。。。(理解流程之后你去看那些公式发现其实也没那么难懂)
先看一下Q-Learning的算法流程,然后一一解释,这里借用一下莫凡python的流程图:
首先要说的是你要有一个基础化的Q表的,否则你毛都没有,agent怎么给你下一状态s’的指导意见呢,是吧,这一步说明对应第一行Initialize
然后episode我搜了一下是step的集合,即从游戏开始到游戏结束的每一步集合,s是游戏的初始状态
下面是要说的就是off-policy和on-policy的问题了
关于这两者的定义,我是参考了这一篇文章:
所谓的off-policy和on-policy的区别其实就是生成数据和为了保证收益最大更新Q表阶段所采取的策略是否一致,以Q-Learning为例,你玩游戏的时候当然选的action是已经训练好的Q(s,a)里面值最大的那个是吧,这个叫做目标策略
目标策略(target policy):智能体要学习的策略
但是我们说了初期的Q-表是随机给的,他需要很多轮去训练,去收敛,于是要求我们在take-action的时候遍历某一个状态下所有可能的动作,于是这个就叫做
行为策略(behavior policy):智能体与环境交互的策略,即用于生成行为的策略
当这两者一致的时候就是on-policy,不一致就是off-policy
现在来考虑,在训练的时候,智能体选取的是eplison-greedy策略,即我有一定概率选取现在在我q表里action值最大的那个动作,但是不一定,我也可以选其他动作,那么包括后续过程包括状态和动作都会不一样,这样就实现了不同动作探索的可能性
通过不断地玩,Q表会不断收敛,到了玩的时候就会根据Q-table在目标策略下进行游戏,以获得较大的收益。
所以Q-Learning是一个off-policy算法,因为这两个阶段的policy完全不同
边栏推荐
- 技能梳理[email protected]+adxl345+电机震动+串口输出
- 断路器HystrixCircuitBreaker
- Auto SEG loss: automatic loss function design
- Go -- maximum heap and minimum heap
- GD32 RT-Thread OTA/Bootloader驱动函数
- 技能梳理[email protected]在oled上控制一条狗的奔跑
- Jinbei LT6 is powerful in the year of the tiger, making waves
- Notes on numerical calculation - iterative solution of linear equations
- Compétences Comb 27 @ Body sense Manipulator
- 逸仙電商發布一季報:堅持研發及品牌投入,實現可持續高質量發展
猜你喜欢

【深度学习】深度学习检测小目标常用方法

Auto Seg-Loss: 自动损失函数设计

Why can't you rob scientists of NFT

Musk has more than 100 million twitter fans, but he has been lost online for a week

文件共享服务器

go-zero微服务实战系列(八、如何处理每秒上万次的下单请求)

Voir le changement technologique à travers la Légion Huawei (5): Smart Park

逸仙電商發布一季報:堅持研發及品牌投入,實現可持續高質量發展

历史上的今天:微软收购 PowerPoint 开发商;SGI 和 MIPS 合并

mysql数据库基础:存储过程和函数
随机推荐
Foresniffer tutorial: extracting data
无心剑中译狄金森《灵魂择其伴侣》
05_ Node JS file management module FS
Eth is not connected to the ore pool
R语言aov函数进行重复测量方差分析(Repeated measures ANOVA、其中一个组内因素和一个组间因素)、分别使用interaction.plot函数和boxplot对交互作用进行可视化
SGD has many improved forms. Why do most papers still use SGD?
R语言plotly可视化:使用plotly可视化多分类模型的预测置信度、模型在2D网格中每个数据点预测的置信度、置信度定义为在某一点上最高分与其他类别得分之和之间的差值
Kernel linked list (general linked list) "list.h" simple version and individual comments
My in-depth remote office experience | community essay solicitation
mysql数据库基础:视图、变量
Foster design method
ArcGIS Pro脚本工具(6)——修复CAD图层数据源
Overview of currency
敏捷开发: 超级易用水桶估计系统
Input a decimal data, convert to 8, using the sequence stack
GeoffreyHinton:我的五十年深度学习生涯与研究心法
RobotFramework学习笔记:环境安装以及robotframework-browser插件的安装
Gd32 RT thread ota/bootloader driver function
Questions about cookies and sessions
今晚19:00知识赋能第2期直播丨OpenHarmony智能家居项目之控制面板界面设计