自学内容网 自学内容网

(一)强化学习基础概念及学习路径

目录

前言

一、强化学习是什么?

二、强化学习中的基本概念

1.状态

2.动作

3.奖励

4.策略

5.智能体

6.环境

7.智能体与环境交互

三、强化学习路径

总结


前言

        强化学习(Reinforcement Learning, RL)是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。其涉及的内容很多,本文仅针对其基础概念以及学习路径进行了介绍和总结,供初学者借鉴和学习。


一、强化学习是什么?

        强化学习是通过智能体与环境不断交互,在选择动作的条件下获得奖励,此时状态由当前状态转换到下一状态,通过不断优化自身的动作策略,以期待最大化长期回报及收益的过程。

        在强化学习的基础上,将深度学习的知识运用到强化学习中。通过神经网络来近似拟合学习过策中的函数,代替传统强化学习中的表格形式,极大的提升了强化学习的整体表现。未来将在专题中详细介绍各种强化学习方法的理论以及实际操作,常见的强化学习方法有以下几种:

价值学习:

TD算法是一大类算法,常见的有Q学习和SARSA,Q 学习的目是学到最优动作价值函数 Q⋆;而 SARSA 的目的是学习动作价值函数 Qπ。
 

Q-learning:用Q函数表示某一状态和动作下的收益。

Deep Q Learning(DQN):适用于离散空间,学习最优动作价值函数Q⋆ 。

Double DQN:双 Q 学习基于目标网络的想法,进一步将 TD 目标的计算分解成选择和求值两步,缓解了最大化造成的高估。

Dueling DQN:基本想法是将最优动作价值 Q⋆ 分解成最优状态价值 V⋆ 与最优优势 D⋆。

SARSA :学习动作价值函数Q_{\pi }

.........

策略学习:

Deep Deterministic Policy Gradient(DDPG):适用于连续空间,是对DQN的拓展。

Trust Region Policy Optimization, TRPO:置信域策略优化 ,表现更加稳定,所用经验更少

Proximal Policy Optimization(PPO):是对TRPO的一个改进,用更简单有限的方法来控制策略近似

.........

策略加价值方法:

Actor-Critic(AC)

Advantage Actor-Critic (A2C)

多智能体强化学习方法:

合作关系/竞争关系/混合关系/利己关系

集中式/分散式/集中训练分散执行

.........


二、强化学习中的基本概念

        以一个游戏为例,我们来讲一下强化学习中的基本概念和公式表示。游戏界面如下图所示:

1. 状态

        状态:是对环境的描述和概括,是智能体决策的依据。以所提游戏为例,当前画面就可以看做环境中的状态,状态是决策的依据和条件,智能体可以根据当前的状态进行决策判断。

        状态空间:所有状态的集合,可以是有限集合也可以是无限集合,一般用S来表示。例如雷达目标跟踪过程中,可以把目标的位置看做状态,此时状态空间就是无限大;当下围棋时,可以把棋子的位置看做状态,此时状态空间就是有限集合。

        状态转移:目前状态为s_{1},经过智能体选择动作a之后,目标状态转换到s_{2}。状态转移函数是当前状态和动作的映射函数,下一个状态s_{2}就是由状态转移函数确定的。

2. 动作

        动作:智能体的选择和决策。以上述游戏为例,小蓝人只能向左、向右、向上、向下走。

        动作空间:所有动作的集合,可以是离散集合或者连续集合。上述游戏的状态空间就是A={上,下,左,右},此时的动作空间是有限空间;在某些示例中,存在一些动作是一个取值范围,此时的动作空间就是无限的。

3. 奖励

        奖励是指智能体选择动作之后得到的反馈。当奖励越大时,说明学习的效果越好。奖励的定义将会深刻影响强化学习的过程,因为这决定了我们的学习目标。以上述游戏为例,我们可以设置小蓝人获得水晶的奖励+100,掉入深坑的奖励为-100;也可以设置通关的奖励为10000,这会使得小蓝人的策略发生变化,他的意图就会由多吃水晶变为尽可能通关。

4. 策略

        策略函数:是指根据目标状态,选择各个动作的概率函数。常见的策略函数取值为0到1之间的数值,表示了在某个状态下,采取不同行动的概率是多少。

5. 智能体

        智能体:以上述游戏为例,控制的小蓝人就是智能体,因为小蓝人可以采取各种动作进行探索和实验。

6. 环境

        环境:根据当前状态和动作生成新状态的主体。在上述游戏中,游戏程序为环境。在实际环境编程中有一个很常用的函数就是Step函数,他的作用就是起到状态转移函数的作用,根据当前状态和动作生成新状态,后续编程和实践文章中将会详细介绍。

7. 智能体与环境交互

        智能体与环境交互:智能体根据环境的状态选择动作,环境会根据智能体的动作和当前状态产生新的状态,并计算奖励,将产生的新状态和奖励反馈给智能体,这就是智能体与环境的交互过程。


三、强化学习路径

        根据自身经验,给大家讲一下强化学习的初始的入门学习路径。每个人的学习路劲和思路不同,在这里仅分享本人的学习思路和路径。

1.初步了解相关概念。通过B站上的视频,简单了解强化学习的相关概念,形成初步的印象。在这里也推荐一本中文的入门书籍。《深度强化学习》-王树森,这本书简单易懂,适合初学者学习。

2.完整系统的学习相关理论知识。这个阶段主要是了解强化学习的理论和原理,这里我是完整跟着赵老师的课程来的,完完整整的听下来会让你对强化学习有一个完整的,系统的认识。

强化学习的数学原理icon-default.png?t=O83Ahttps://www.bilibili.com/video/BV1sd4y167NS/

3.动手实践阶段,这里大家可以选择不同的方式,可以通过OpenAI的课程,或者B站上的可成进行手把手的编程。注意这里应当有Python的基础编程知识,没有的同学需要先学习Python才能开始这部分的学习。

OpenAI公开课程icon-default.png?t=O83Ahttps://spinningup.openai.com/en/latest/index.htmlB站强化学习编程课程icon-default.png?t=O83Ahttps://www.bilibili.com/video/av951178075?vd_source=11e9207a073e73397f429d275f48052e&spm_id_from=333.788.videopod.sections

4.深化阶段。此阶段就是结合你的学习内容,复盘所有的知识,并根据所学知识复现或者调试各种代码段的过程,各种代码的资源是比较多的,大家可以在网上自行查找。


总结

        本文针对强化学习的基本概念和知识进行了介绍,并讲述了对应的学习路径,如果大家能够按照学习路径进行学习,一段时间内就能完成强化学习的入门过程。


原文地址:https://blog.csdn.net/h320130/article/details/143946867

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!