论文On a Formal Model of Safe and Scalable Self-driving Cars第4部分 Driving Policy的阅读记录
论文On a Formal Model of Safe and Scalable Self-driving Cars第4部分 Driving Policy的阅读记录

论文On a Formal Model of Safe and Scalable Self-driving Cars第4部分 Driving Policy的阅读记录

论文本站下载链接:http://hg.chenzgg.top/wp-content/uploads/2024/08/On-a-Formal-Model-of-Safe-and-Scalable-Self-driving-Cars.pdf

问题记录(部分答案由Ai生成):

问题1 :什么是贝尔曼方程?

Bellman方程在数学概率领域中,特别是在强化学习和动态规划中扮演着非常重要的角色。它是由理查德·贝尔曼(Richard Bellman)提出的,用于描述在马尔可夫决策过程中,状态值函数或策略值函数的递推关系。Bellman方程是动态规划问题中相邻状态关系的方程,用于将一个多阶段决策问题分解为一系列子问题,并逐步求解以获得最优解 。

在强化学习中,Bellman方程用于估计值函数,这些值函数代表了智能体在特定状态下遵循某一策略所能获得的期望回报。值函数可以是状态值函数(state-value function),表示从某个状态出发,遵循策略所能获得的期望回报;或者是动作值函数(action-value function),表示在某个状态下采取某个动作并遵循策略所能获得的期望回报 。

Bellman方程的一般形式可以表示为:

$v_\pi(s) = \sum_{a \in \mathcal{A}} \pi(a|s) \sum_{s’ \in \mathcal{S}, r \in \mathcal{R}} p(s’, r | s, a) \left[ r + \gamma v_\pi(s’) \right] $

其中,$ v_\pi(s) $是在状态 $s$下遵循策略 $\pi$的状态值函数,$\pi(a|s) $ 是在状态 $s$ 下采取动作 $a$ 的概率,$p(s’, r | s, a) $是从状态 $s$采取动作 $a$ 转移到状态 $s’$并获得奖励 $r$的概率,$\gamma$ 是折扣因子,$\mathcal{A}$ 是所有可能的动作集合,$\mathcal{S}$是所有可能的状态集合,$\mathcal{R}$是所有可能的奖励集合 。

在最优策略的上下文中,Bellman最优方程(Bellman Optimality Equation)提供了一种方法来找到最优策略,即能够获得最大期望回报的策略。这个方程通过最大化右侧的表达式来求解,从而找到最优的动作选择 。


问题2:维度诅咒是什么?它会产生什么后果?强化学习领域在Q值上避开维度诅咒的典型例子是什么

  1. 数据稀疏性:随着维度的增加,数据点在空间中变得越来越稀疏,导致有效的数据点间隔变大。
  2. 距离度量问题:在高维空间中,传统的距离度量(如欧氏距离)变得不那么有效,因为高维空间中的“距离”概念变得模糊。
  3. 存储和计算成本:高维数据需要更多的存储空间,并且计算复杂度随着维度的增加而指数级增长。
  4. 模型泛化能力下降:在高维空间中,模型可能过于复杂,难以泛化到新的数据上,导致过拟合问题。

维度诅咒的后果包括:

  • 需要更多的数据来获得可靠的统计推断。
  • 算法的性能可能下降,因为它们需要处理更多的特征和更复杂的决策边界。
  • 模型训练和预测的时间增加,计算资源消耗更大。
  • 特征选择和模型解释变得更加困难。

在强化学习领域,Q值(动作-值函数)表是一种用于估计在给定状态下采取特定动作的预期回报的方法。然而,当状态空间和动作空间很大时,Q值表变得不切实际,因为它需要存储每个状态-动作对的Q值,这在高维空间中会导致巨大的存储需求。

避开维度诅咒的典型例子包括:

  1. 函数逼近:使用函数逼近方法,如神经网络,来近似Q值函数,而不是为每个状态-动作对存储一个单独的值。这种方法可以显著减少所需的存储空间,并允许模型从有限的数据中学习泛化的Q值函数。
  2. 深度Q网络(Deep Q-Network, DQN):DQN是一种结合了深度学习和Q学习的方法,它使用一个深度神经网络来估计Q值。DQN通过智能地学习状态和动作之间的复杂映射,避免了显式地为每个状态-动作对存储Q值,从而解决了维度诅咒问题。
  3. 特征提取:在状态空间很大的情况下,可以通过特征提取技术来降低状态表示的维度,然后再将这些特征用于Q值的估计。
  4. 参数化策略:使用参数化的策略(如线性或非线性函数)来近似最优策略,而不是为每个状态存储一个单独的策略。
  5. 稀疏表示:在某些情况下,状态空间可能是稀疏的,这意味着只有少数几个特征在任何给定时间是相关的。通过识别和利用这种稀疏性,可以减少需要考虑的特征数量,从而减轻维度诅咒的影响。

问题3:信噪比是什么?强化学习中提到的在近似Q值中的一个重要问题是信噪比非常小怎么理解?

信噪比(Signal-to-Noise Ratio, SNR)是一个度量信号强度与背景噪声强度比例的指标,在不同的领域有不同的定义和计算方式。在音频领域,它通常指的是有用音频信号的功率与背景噪声功率的比值。在通信领域,它可能指的是接收到的信号功率与噪声功率的比值。而在统计学和信号处理中,信噪比可以描述为有用信号与随机噪声之间的比例。论文中在30页以离开高速道路的极小时间差内变道行为产生的区别来阐述为什么信噪比很小,因为极小时间内前后做出变道行为对后面的驾驶并没有大的影响,也就是说他们的Q值其实是接近的,所以对于函数逼近时就很容易导致学习效率低下和过拟合等风险。

在强化学习(Reinforcement Learning, RL)的上下文中,特别是在使用函数逼近方法(如神经网络)来近似Q值时,信噪比的概念可以这样理解:

  1. 信号:在强化学习中,”信号”指的是真实的Q值或者期望回报,即智能体在某个状态下采取某个动作并遵循策略所能获得的真实回报。
  2. 噪声:”噪声”则是指在估计Q值时由于函数逼近方法的不完美而引入的误差。这种误差可能来源于模型的不准确、训练数据的有限性、环境的随机性等。
  3. 信噪比非常小:当信噪比非常小的时候,意味着噪声的强度与信号的强度相近,甚至可能超过信号的强度。这会导致Q值的估计非常不准确,智能体难以从这些噪声中学习到有用的策略。

在强化学习中,信噪比非常小的问题通常会导致以下后果:

  • 学习效率降低:智能体可能需要更多的尝试和错误来识别有效的动作,因为噪声使得从经验中学习变得更加困难。
  • 过拟合风险:在尝试减少噪声影响的过程中,模型可能会对训练数据过度拟合,从而失去泛化能力。
  • 探索与利用的平衡问题:信噪比低可能导致智能体难以区分哪些动作是真正有益的,从而难以在探索新动作和利用已知信息之间做出平衡。

为了解决信噪比非常小的问题,可以采取以下一些策略:

  • 增加数据量:通过收集更多的数据来减少估计误差,提高信噪比。
  • 正则化:使用正则化技术来防止模型过度拟合噪声。
  • 更复杂的模型:使用更复杂的模型来更好地捕捉环境的动态特性,从而减少噪声的影响。
  • 经验回放(Experience Replay):在深度Q网络(DQN)中,通过存储过去的经验并在训练时随机抽样,可以减少噪声的影响。
  • 目标网络(Target Network):在DQN中,使用一个与主网络同步但不频繁更新的目标网络来稳定学习过程。

问题4:文中提到的近似Q值且避开维度诅咒和信噪比地下的问题有哪三种?

论文提到:1.暴力法,将Q值表保存在内存中,在需要的时候再访问出来,需要大量的计算资源和内存,反应速度慢;2.资源效率法,即不追求高准确的Q值而使用近似Q值或者短序列(短维度,即考虑因素少)的方法,效率高但准确率欠佳;3.由作者提出的语义动作空间方法,将语义行为映射到Q值上,一个语义可以在长时间间隔产生长序列轨迹以指导行为,从而大大降低数据维度和提升信噪比。


问题5:文中提到的options mechanism算法原理是什么?

在强化学习中,options mechanism(选项机制)是一种用于构建复杂行为和任务的框架。它通过将复杂的任务分解为更小、更易管理的子任务来简化学习过程。每个选项可以视为一个宏动作(macro-action),它封装了一系列低级别的动作以及一个终止条件,这些低级动作和终止条件共同完成一个子目标或任务 。

Options通常表示为三元组 <I, π, β>,其中:

  • I 是选项的初始状态集合,表示在哪些状态下可以启动这个选项。
  • π 是选项的内部策略(inner-option policy),它定义了在给定状态下选项将采取哪个动作。
  • β 是终止函数(termination function),它定义了选项何时结束,通常以概率形式给出 。

Options机制的优势在于它提供了一种自然的方式来进行层次化建模和学习。顶层策略可以选择启动哪个选项,而每个选项则负责选择具体的低级动作,直到该选项终止。这种层次化方法可以减少状态空间的复杂性,并且使得智能体能够通过学习如何以及何时执行这些宏动作来解决复杂任务 。

此外,options机制也允许智能体学习到一种策略的策略(meta-policy),即在不同情境下选择合适选项的能力。这为强化学习提供了一种更加灵活和强大的问题解决手段 。


第4小节是很好的分层强化学习的思路方法,上层神经网络决定语义动作,下层神经网络负责学习如何完成语义动作。即上层是感知到语义,下层是语义到控制。

问题是,如何进行SMDP建模?如何确定上下层的决策频率,如何评估下层神经网络的奖励和开销,如何评估上层语义动作的奖励,以及分层强化学习如何训练上下层?先上层还是一起训?

发表回复