图书介绍

大规模强化学习pdf电子书版本下载

大规模强化学习
  • 刘全,傅启明,钟珊,黄蔚著 著
  • 出版社: 北京:科学出版社
  • ISBN:7030477477
  • 出版时间:2016
  • 标注页数:277页
  • 文件大小:37MB
  • 文件页数:290页
  • 主题词:

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快] 温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页 直链下载[便捷但速度慢]   [在线试读本书]   [在线获取解压码]

下载说明

大规模强化学习PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如 BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

第1章 强化学习概述 1

1.1 简介 1

1.2 形式框架 3

1.2.1 马尔可夫决策过程 3

1.2.2 策略 6

1.2.3 回报 7

1.3 值函数 7

1.4 解决强化学习问题 9

1.4.1 动态规划:基于模型的解决技术 9

1.4.2 强化学习:模型无关的解决技术 16

1.5 本章小结 20

参考文献 21

第2章 大规模或连续状态空间的强化学习 23

2.1 简介 23

2.2 近似表示 24

2.2.1 带参数化值函数逼近 24

2.2.2 非参数化值函数逼近 28

2.3 值函数逼近求解方法 29

2.3.1 梯度下降方法 30

2.3.2 最小二乘回归 31

2.4 本章小结 31

参考文献 32

第3章 梯度下降值函数逼近模型的改进 33

3.1 改进的梯度下降值函数逼近模型 33

3.1.1 势函数塑造奖赏机制 33

3.1.2 基于势函数塑造奖赏机制的值函数逼近模型 35

3.2 NRBF-GD-Sarsa(λ)算法 36

3.2.1 算法描述 36

3.2.2 算法收敛性分析 37

3.3 仿真实验 39

3.3.1 实验描述 39

3.3.2 实验设置 40

3.3.3 实验分析 41

3.4 本章小结 43

参考文献 44

第4章 基于LSSVR的Q-值函数分片逼近模型 45

4.1 LSSVR-Q-值函数分片逼近模型 45

4.2 在线稀疏化样本池构建方法 48

4.3 LSSVR-Q算法 49

4.4 仿真实验 49

4.4.1 实验1:Mountain Car问题 51

4.4.2 实验2:DC Motor问题 54

4.5 本章小结 57

参考文献 58

第5章 基于ANRBF网络的Q-V值函数协同逼近模型 59

5.1 Q-V值函数协同机制 59

5.2 Q-V值函数协同逼近模型 61

5.3 Q-V值函数协同逼近算法 63

5.3.1 QV(λ)算法 63

5.3.2 算法收敛性分析 65

5.4 仿真实验 67

5.4.1 实验描述 67

5.4.2 实验设置 68

5.4.3 实验分析 68

5.5 本章小结 73

参考文献 73

第6章 基于高斯过程的快速Sarsa算法 75

6.1 新的值函数概率生成模型 75

6.2 利用高斯过程对线性带参值函数建模 77

6.3 FL-GPSarsa算法 78

6.4 仿真实验 81

6.4.1 带风的格子世界问题 81

6.4.2 Mountain Car问题 84

6.5 本章小结 86

参考文献 87

第7章 基于高斯过程的Q学习算法 88

7.1 值迭代方法 88

7.2 用于值迭代的值函数概率生成模型 89

7.3 GP-QL算法 90

7.4 仿真实验 93

7.4.1 实验1:带悬崖的格子世界问题 93

7.4.2 实验2:Mountain Car问题 96

7.5 本章小结 97

参考文献 97

第8章 最小二乘策略迭代算法 99

8.1 马尔可夫决策过程 99

8.2 最小二乘策略迭代 100

8.2.1 投影贝尔曼等式的矩阵形式 100

8.2.2 最小二乘策略迭代 103

8.2.3 在线最小二乘策略迭代 104

8.3 本章小结 106

参考文献 106

第9章 批量最小二乘策略迭代算法 107

9.1 批量强化学习算法 107

9.2 批量最小二乘策略迭代算法 108

9.3 算法分析 111

9.3.1 收敛性分析 111

9.3.2 复杂度分析 113

9.4 仿真实验 114

9.4.1 实验描述 114

9.4.2 实验设置 115

9.4.3 实验分析 115

9.5 本章小结 120

参考文献 120

第10章 自动批量最小二乘策略迭代算法 122

10.1 定点步长参数评估方法 122

10.2 自动批量最小二乘策略迭代算法 124

10.3 仿真实验 125

10.3.1 实验描述 125

10.3.2 实验分析 125

10.4 本章小结 130

参考文献 130

第11章 连续动作空间的批量最小二乘策略迭代算法 132

11.1 二值动作搜索 132

11.2 快速特征选择 133

11.3 连续动作空间的快速特征选择批量最小二乘策略迭代算法 134

11.4 仿真实验 136

11.4.1 实验描述 136

11.4.2 实验设置 136

11.4.3 实验分析 136

11.5 本章小结 140

参考文献 141

第12章 一种基于双层模糊推理的Sarsa(λ)算法 143

12.1 Q-值函数的计算和FIS的参数更新 143

12.2 DFR-Sarsa(λ)算法 146

12.2.1 DFR-Sarsa(λ)算法的学习过程 146

12.2.2 算法收敛性分析 147

12.3 仿真实验 149

12.3.1 Mountain Car 149

12.3.2 平衡杆 151

12.4 本章小结 153

参考文献 153

第13章 一种基于区间型二型模糊推理的Sarsa(λ)算法 155

13.1 近似Q-值函数的计算和参数的更新 155

13.2 IT2FI-Sarsa(λ)算法的学习过程 157

13.3 算法收敛性分析 158

13.4 仿真实验 162

13.4.1 实验设置 163

13.4.2 实验分析 163

13.5 本章小结 165

参考文献 165

第14章 一种带有自适应基函数的模糊值迭代算法 167

14.1 基函数的近似性能评价 167

14.2 基函数的自适应细化更新方式 169

14.3 ABF-QI算法 170

14.3.1 ABF-QI算法的学习过程 170

14.3.2 算法收敛性分析 171

14.4 仿真实验 172

14.4.1 问题描述与参数设置 172

14.4.2 实验分析 172

14.5 本章小结 175

参考文献 175

第15章 基于状态空间分解和智能调度的并行强化学习 177

15.1 IS-SRL和IS-SPRL 177

15.1.1 子问题的学习过程 177

15.1.2 IS-SPRL的消息传递和调度 180

15.1.3 学习步骤 181

15.2 加权优先级调度算法 183

15.3 收敛性分析 186

15.3.1 模型和假设 187

15.3.2 基于IS-SRL和IS-SPRL的Q学习算法的收敛性 188

15.4 仿真实验 190

15.4.1 不同调度算法的比较 191

15.4.2 算法在不同参数下的性能比较 191

15.4.3 不同算法的收敛速度的比较 193

15.4.4 结果分析 195

15.5 本章小结 195

参考文献 196

第16章 基于资格迹的并行时间信度分配强化学习算法 198

16.1 资格迹与强化学习 199

16.2 并行时间信度分配 200

16.3 性能优化与系统容错 203

16.3.1 状态迁移预测 203

16.3.2 故障预防和恢复 203

16.4 仿真实验 204

16.5 本章小结 206

参考文献 207

第17章 基于并行采样和学习经验复用的E3算法 209

17.1 E3算法 209

17.2 学习经验复用 212

17.3 并行E3算法 212

17.4 系统容错 215

17.5 仿真实验 216

17.6 本章小结 219

参考文献 219

第18章 基于线性函数逼近的离策略Q(λ)算法 221

18.1 离策略强化学习 221

18.1.1 梯度下降法与线性函数逼近 221

18.1.2 离策略强化学习算法 224

18.2 GDOP-Q(λ)算法 226

18.2.1 GDOP-Q(λ) 226

18.2.2 收敛性分析 227

18.3 仿真实验 230

18.4 本章小结 234

参考文献 234

第19章 基于二阶TD Error的Q(λ)算法 236

19.1 二阶TD Error快速Q(λ)算法 236

19.1.1 二阶TD Error 236

19.1.2 资格迹 238

19.1.3 SOE-FQ(λ) 238

19.1.4 算法收敛性及时间复杂度分析 239

19.2 仿真实验 244

19.2.1 Random Walk问题 244

19.2.2 Mountain Car问题 247

19.3 本章小结 248

参考文献 249

第20章 基于值函数迁移的快速Q-Learning算法 251

20.1 自模拟度量与状态之间的距离 252

20.2 基于值函数迁移的Q-Learning算法 254

20.2.1 基于自模拟度量的值函数迁移 254

20.2.2 VFT-Q-Learning 256

20.3 仿真实验 257

20.3.1 问题描述 257

20.3.2 实验设置 258

20.3.3 实验分析 258

20.4 本章小结 262

参考文献 263

第21章 离策略带参贝叶斯强化学习算法 264

21.1 高斯过程 264

21.2 基于高斯过程的离策略带参近似策略迭代算法 265

21.2.1 基于高斯过程的值函数参数估计 265

21.2.2 基于VPI的动作选择方法 269

21.2.3 GP-OPPAPI 270

21.3 仿真实验 273

21.4 本章小结 275

参考文献 276

精品推荐