无人机辅助车载网络的深度强化学习

无人机辅助车载网络的深度强化学习

摘要:无人机( uav )被设想为未来智能城市中 5G 通信基础设施的补充。在交叉口容易出现热点,车辆之间的有效沟通是一个挑战。uav 可以作为继电器,具有价格低、易于部署、视线范围连接和灵活的机动性等优点。在本文中,我们研究了无人机辅助的车载网络,无人机联合调整其传输控制(功率和信道)和三维飞行,以最大限度地提高总吞吐量。首先,通过对无人机/车辆的机动性和状态转换建模,构建了马尔可夫决策过程( MDP )问题。其次,在未知或不可测的环境变量下,特别是在5G环境下,利用深度强化学习方法解决目标问题,即深度确定性策略梯度( DDPG ),并提出了三种不同控制目标的解决方案。环境变量是未知和不可测量的,因此,我们使用深度强化学习方法。此外,考虑到 3D 飞行的能源消耗,我们扩展了所提出的解决方案,通过鼓励或阻止无人机的机动性,使每能量单位的总吞吐量最大化。为了实现这个目标, DDPG 框架被修改了。然后,在一个具有较小状态空间和动作空间的简化模型中,验证了所提算法的最优性。通过与两种基线方案的比较,验证了所提算法在真实模型中的有效性。

关键词:无人机、车载网络、智慧城市、马尔可夫决策过程、深度强化学习、功率控制、信道控制

1.介绍

智能交通系统是智能城市的关键组成部分,它利用实时数据通信实现交通监控、路径规划、娱乐和广告等功能。高速车辆网络是智能交通系统的关键组成部分,它提供合作通信以提高数据传输性能。随着车辆数量的增加,现有的通信基础设施可能无法满足数据传输的需求,特别是在交通高峰期出现热点(如道路交叉口)时。无人机( UAVs )或无人机( drones )可以补充 4G/5G 通信基础设施,包括车对车( V2V )通信和车对基础设施( V2I )通信。高通公司已获得授权认证,允许在 400 英尺以下进行无人机测试;华为将与中国移动合作建立首个区域物流无人机的蜂窝测试网络。

1

图 1 中的无人机辅助车载网络有几个优点。首先,由于与固定的基站相比,无人机可以更接近车辆,因此路径损失将大大降低。其次,该无人机能够根据车辆的机动性灵活地调整传输控制。第三,无人机-车辆链路的质量普遍优于地面链路,因为它们大多是视距无线传输( LoS )。

最大化无人机-车辆链路的总吞吐量有几个挑战。首先,通信通道随着无人机三维位置的变化而变化。其次,传统优化方法无法直接求解无人机三维飞行与传动控制(如功率控制)的联合调整问题,特别是在环境变量未知且不可测的情况下。第三,通道条件难以获取,如无人机到车辆的路径损失与建筑物高度/密度和街道宽度密切相关。

本文提出了深度强化学习算法,以最大化无人机对飞行器通信的总吞吐量,通过与环境的交互学习,共同调整无人机的三维飞行和传输控制。本文的主要贡献如下:

1)将该问题定义为马尔可夫决策过程( MDP )问题,以总传输功率和总信道为约束,使总吞吐量最大化;

2)应用深度强化学习方法——深度确定性策略梯度( DDPG )来解决该问题。 DDPG 适用于具有连续状态和连续行动的 MDP 问题。提出了三种不同控制目标的方案,共同调整无人机的三维飞行和传输控制。然后,我们扩展提出的解决方案,以最大限度地总吞吐量每能源单位。为了鼓励或抑制无人机的机动性,我们修改了奖励函数和 DDPG 框架;

3)利用一个简化模型,在较小的状态空间和动作空间下,验证了所提解的最优性。

最后,我们提供了大量的仿真结果,以证明所提出的解决方案的有效性,并与两个基线方案进行了比较。

本文的其余部分组织如下。第二节讨论相关工作。第三节介绍系统模型和问题表述。第四节提出了解决方案。第五节给出了绩效评估。第六部分是本文的总结。

2.相关工作

无人机辅助车载网络的动态控制包括飞行控制和传输控制。飞行控制主要包括飞行路径、时间和方向的规划。Yang 等人提出了一种联合遗传算法和蚁群优化方法来获得无人机在无线传感器网络中收集感知数据的最佳飞行路径。为了进一步最小化无人机在一定约束条件(如能量限制、公平性、碰撞等)下的飞行时间,Garraffa 等人提出了一种基于列生成方法的二维( 2D )路径规划方法。Liu 等人提出了一种深度强化学习方法,通过优化飞行方向和距离来控制一组无人机,在有限的能量消耗下实现长期最佳的通信覆盖。

无人机的传输控制主要涉及接入选择、传输功率、带宽/信道分配等资源分配问题。Wang 等人提出了一种考虑通信、缓存和能量传输的无人机功率分配策略。在无人机辅助通信网络中,Yan 等人研究了无人机接入选择和基站带宽分配问题,将无人机与基站之间的交互建模为 Stackelberg 博弈,得到了 纳什均衡的唯一性。

同时考虑了无人机飞行和传输的联合控制。 Wu 等人通过联合优化无人机的二维轨迹和功率分配,考虑最大限度地提高无人机到地面用户的最小可达率。 Zeng 等人提出了一种凸优化方法,对无人机的二维轨迹进行优化,使其任务完成时间最小化,同时保证无人机向各地面终端传播一个公共文件时,各地面终端高概率恢复文件。Zhang 等人考虑了无人机任务完成时间的最小化问题,以基站与无人机之间的连接质量为约束,对无人机的二维轨迹进行优化。然而,现有的研究大多忽略了通过规避各种障碍物或非视距( NLoS )链路来调整无人机的高度以获得更好的链路质量。

Fan 等对无人机的三维飞行和传输控制进行了优化;但根据 LoS link 的要求,将 3D 位置优化转换为 2D 位置优化。现有的基于深度强化学习的方法只处理无人机的 2D 飞行和简单的传输控制决策。例如,Challita 等人提出了一种基于深度强化学习的蜂窝无人机网络方法,通过优化二维路径和小区关联,实现了能量效率最大化和无线延迟和路径干扰最小化之间的权衡。在文章23中应用了一个类似的方案来提供智能交通灯控制。

此外,现有的大多数工程都假定接地端子是固定的;而在现实中,一些地面终端以特定的模式移动,例如,车辆在交通灯的控制下移动。本文研究了一种考虑交叉口车辆移动性的无人机辅助车载网络,该网络可以联合调整无人机的三维飞行和传输控制。

3.系统模型和问题表述

在本节中,我们首先描述了交通模型和通信模型,然后将目标问题表述为一个马尔可夫决策过程。为了便于参考,通讯模型中的变量列于表 1 。

A.交通模型

我们从图 2 所示的单向双流路口开始,而图 7 中更为复杂的场景将在V-B部分中描述。五个街区被编号为0、1、2、3、4,其中 0 街区是交叉口。假设每个 block 最多包含一个 vehicle ,用二进制变量 n 表示,n = (n0,…∈{0,1}。图 2 中有两条交通流,

  • “Flow 1”:1→0→3;
  • “Flow 2”:2→0→4.

交通灯 L 有四种配置:

  • L = 0: flow 1为红灯, flow 2为绿灯;
  • L = 1: flow 1为红灯, flow 2为黄灯;
  • L = 2: flow 1为绿灯, flow 2为红灯;
  • L = 3: flow 1为黄灯, flow 2为红灯。

2

时间被划分为持续时间相等的插槽。绿灯、红灯的持续时间占用N个时隙,黄灯的持续时间占用一个时隙,如图3所示。假设绿灯亮时,每辆车在一个时间段内移动一个街区

3

B.通信模型

我们的重点是下行通信( UAV- vehicle ),因为它们直接由 UAV 控制。每个无人机 -车辆链路有两种通道状态,视距( LoS )和非视距( NLoS)。设 x 、 z 分别表示无人机的块(水平位置)和高度,其中 x∈{0,1,2,3,4} 对应图 2 中的这五个块,将z离散为多个值。我们假设无人机停留在五个街区以上,因为无人机倾向于靠近车辆。接下来,我们描述了通信模型,包括信道功率增益、信噪比和总吞吐量。

首先,以信道状态 HtiNLoS,LoSH_t^i \in {NLoS, LoS} 表示时隙 t 块 i 的无人机与车辆之间的信道功率增益。 hih^i 公式被表示为:

hti={(Dti)β1, if Hti=LoSβ2(Dti)β1, if Hti=NLoSh_{t}^{i}=\left\{\begin{array}{ll} \left(D_{t}^{i}\right)^{-\beta_{1}}, & \text { if } H_{t}^{i}=\mathrm{LoS} \\ \beta_{2}\left(D_{t}^{i}\right)^{-\beta_{1}}, & \text { if } H_{t}^{i}=\mathrm{NLoS} \end{array}\right.

式中 DtiD_{t}^{i} 为 t 时隙中无人机与 i 块飞行器之间的欧氏距离, β1\beta_{1} 为路径损失指数, β2\beta_{2} 为 NLoS 连接引起的附加衰减因子。

t 时隙中无人机与 i 块车辆之间的视距链路和非视距链路的概率为

p(Hti=LoS)=11+α1exp(α2(180πarctanzdtiα1))p(Hti=NLoS)=1p(Hti=LoS),i{0,1,2,3,4}\begin{array}{c} p\left(H_{t}^{i}=\mathrm{LoS}\right)=\frac{1}{1+\alpha_{1} \exp \left(-\alpha_{2}\left(\frac{180}{\pi} \arctan \frac{z}{d_{t}^{i}}-\alpha_{1}\right)\right)} \\ p\left(H_{t}^{i}=\mathrm{NLoS}\right)=1-p\left(H_{t}^{i}=\mathrm{LoS}\right), \quad i \in\{0,1,2,3,4\} \end{array}

其中,α1\alpha_1α2\alpha_2 是取决于环境(建筑高度/密度、街道宽度等)的系统参数。我们假设 α1\alpha_1α2\alpha_2β1\beta_1β2\beta_2 在一个交点上的所有 block 中都有固定的值。是时间槽 t 上的水平距离。角度 180πarctanzdti\frac{180}{\pi} \arctan \frac{z}{d_{t}^{i}} 是用“度”来测量的,其范围是 0°~ 90° 。 dtid_{t}^{i}ztz_t 都是离散变量,因此 Dti=(dti)2+zt2D_{t}^{i}=\sqrt{\left(d_{t}^{i}\right)^{2}+z_{t}^{2}} 也是离散变量。

其次,将无人机到块 i 车辆在 t 时段的 SINR ψti\psi_{t}^{i} 表征为

ψti=ρtihtibctiσ2,i{0,1,2,3,4}\psi_{t}^{i}=\frac{\rho_{t}^{i} h_{t}^{i}}{b c_{t}^{i} \sigma^{2}}, i \in\{0,1,2,3,4\}

式中, b 为每个信道的等带宽, ρti\rho_{t}^{i}ctic_{t}^{i} 分别为第 i 块车辆在时隙 t 分配的传输功率和信道数, σ2\sigma^{2} 为加性高斯白噪声( AWGN )功率谱密度, hih^i 由公式(1)表示。假设无人机采用正交频分多址( OFDMA );因此,这些通道之间不存在干扰。

第三,无人机到车辆链路的总吞吐量(reward)表示为:

i{0,1,2,3,4}bctilog(1+ψti)=i{0,1,2,3,4}bctilog(1+ρtihtibctiσ2)\sum_{i \in\{0,1,2,3,4\}} b c_{t}^{i} \log \left(1+\psi_{t}^{i}\right)=\sum_{i \in\{0,1,2,3,4\}} b c_{t}^{i} \log \left(1+\frac{\rho_{t}^{i} h_{t}^{i}}{b c_{t}^{i} \sigma^{2}}\right)

C. MDP公式

无人机的目标是在总传输功率和总信道约束下实现总吞吐量最大化:

\sum_{i \in\{0,1,2,3,4\}} \rho_{t}^{i} \leq P, \quad \sum_{i \in\{0,1,2,3,4\}} c_{t}^{i} \leq C, \\ {0 \leq \rho_{t}^{i} \leq \rho_{\max },} &{0 \leq c_{t}^{i} \leq c_{\max }, \quad i \in\{0,1,2,3,4\},}

其中 P 为总传输功率, C 为总信道数, ρmax\rho_{\max } 为分配给车辆的最大功率, cmaxc_{\max } 为分配给车辆的最大信道数, ρti\rho_{t}^{i} 为离散变量, ctic_{t}^{i} 为非负整数变量。

将无人机辅助通信建模为马尔可夫决策过程( MDP )。一方面,由公式( 2 )和公式( 3 )可知,无人机-飞行器链路的信道状态服从随机过程。另一方面,车辆到达在红绿灯控制下遵循随机过程,如(12)(13)。

在 MDP 框架下,问题的状态空间 S 、行动空间 A 、奖励 r 、策略 π 和状态转移概率 p(st+1st,at)p\left(s_{t+1} \mid s_{t}, a_{t}\right) 定义如下:

1.状态State S=(L,x,z,n,H)\mathcal{S}=(L, x, z, \boldsymbol{n}, \boldsymbol{H}) ,其中 L 为交通灯状态,( x , z )为无人机的三维位置, x∈{0,1,2,3,4} 为块体, z 为高度, H=(H0,,H4)\boldsymbol{H}=\left(H^{0}, \ldots, H^{4}\right) 为从无人机到每个区块 i∈{0,1,2,3,4} 的信道状态,HiH^i ∈{NLoS, LoS}。设 z[zmin,zmax]z \in\left[z_{\min }, z_{\max }\right] ,其中 zminz_{\min }zmaxz_{\max } 分别为无人机高度的最小值和最大值。block x 是从无人机的3D位置投影到道路的位置。

2.动作Action A=(f,ρ,c)A = (f,ρ,c) 表示动作集。 fxf^x 表示水平飞行, fzf^z 表示垂直飞行,共同构成了无人机的 3D飞行 f=(fx,fz)\boldsymbol{f}=\left(f^{x}, f^{z}\right) 。关于水平飞行,我们假设无人机可以悬停或者在一个时间段飞行到相邻块,因此如图4 fx{0,1,,7}f^{x} \in\{0,1, \ldots, 7\} 。对于垂直飞行,我们假设

fz{5,0,5},f^{z} \in\{-5,0,5\},

这意味着无人机可以在一个时间段内向下飞行5米,水平飞行5米,向上飞行5米。无人机的高度可以表示为

zt+1=ftz+ztz_{t+1}=f_{t}^{z}+z_{t}

$\boldsymbol{\rho}=\left(\rho_{t}^{0}, \ldots, \rho_{t}^{4}\right) $ 和 $ \boldsymbol{c}=\left(c_{t}^{0}, \ldots, c_{t}^{4}\right)$ 分别为这五个块的传输功率和信道分配动作。在时间t结束时,无人机根据动作 f 移动到一个新的 3D 位置,随着时间 t 的推移,发射功率为 ρ ,信道数为 c 。

4

3.奖励Reward r(st,at)=i{0,1,2,3,4}bntictilog(1+ρtihtibctiσ2)r\left(s_{t}, a_{t}\right)=\sum_{i \in\{0,1,2,3,4\}} b n_{t}^{i} c_{t}^{i} \log \left(1+\frac{\rho_{t}^{i} h_{t}^{i}}{b c_{t}^{i} \sigma^{2}}\right) 是在执行动作 ata_t 时从状态 sts_t过渡到状态 st+1s_{t+1} 后的总吞吐量。注意,第 t 个时隙的总吞吐量是在状态 st=(Lt,xt,zt,nt,Ht)s_t = \left(L_{t}, x_{t}, z_{t}, \boldsymbol{n}_{t}, \boldsymbol{H}_{t}\right) 时测量的。

4.策略Policy π 是无人机的策略,它将状态映射到行动 π 上的概率分布 π:SP(A)\pi: \mathcal{S} \rightarrow \mathcal{P}(\mathcal{A}) ,其中 P()\mathcal{P}(\cdot) 表示概率分布。在时刻 t ,无人机的状态为 st=(Lt,xt,zt,nt,Ht)s_{t}=\left(L_{t}, x_{t}, z_{t}, \boldsymbol{n}_{t}, \boldsymbol{H}_{t}\right) ,其策略 πt\pi_t 输出时刻动作的概率分布。我们可以看到,策略指示了 UAV 的动作优先级。

5.状态转换概率 p(st+1st,at)p\left(s_{t+1} \mid s_{t}, a_{t}\right) (公式 8 中)代表了无人机在当前状态 sts_t 采取行动 ata_t 后进入新的状态 st+1s_{t+1} 的概率。在当前状态 st=(Lt,xt,zt,nt,Ht)s_{t}=\left(L_{t}, x_{t}, z_{t}, \boldsymbol{n}_{t}, \boldsymbol{H}_{t}\right) ,在三维飞行和传输控制 at=(f,ρ,c)a_{t}=(\boldsymbol{f}, \boldsymbol{\rho}, \boldsymbol{c}) 后,无人机移动到新的 3D 位置 (xt+1,zt+1)(x_{t+1}, z_{t+1}) ,通道状态变为 Ht+1H_{t+1} ,交通灯变为 Lt+1L_{t+1} ,每个街区车辆数变为 nt+1n_{t+1}

交通灯的状态随时间的变化如图 3 所示。无人机 -车辆链路信道状态的转变是一个随机过程,由式(2)和式(3)反映。

其次,从状态转移概率、每个块内车辆数状态转移和无人机的三维位置三个方面讨论状态转移算法。需要注意的是,传输功率控制和通道控制不影响交通灯、通道状态、车辆数量和无人机三维位置。

首先,我们讨论了状态转移概率 p(st+1st,at)=p((Lt+1,xt+1,zt+1,nt+1,Ht+1)(Lt,xt,zt,nt,Ht),(ft,ρt,ct))p\left(s_{t+1} \mid s_{t}, a_{t}\right)=\quad p\left(\left(L_{t+1}, x_{t+1}, z_{t+1}, \boldsymbol{n}_{t+1}, \boldsymbol{H}_{t+1}\right)\right. \left.\mid\left(L_{t}, x_{t}, z_{t}, \boldsymbol{n}_{t}, \boldsymbol{H}_{t}\right), \quad\left(\boldsymbol{f}_{t}, \boldsymbol{\rho}_{t}, \boldsymbol{c}_{t}\right)\right) 。无人机的 3D 飞行只会影响无人机的三维位置状态和信道状态,下一个时间段的交通信号灯状态依赖于当前交通灯状态,下一时段每个区块的车辆数量取决于当前车辆数量和红绿灯状态。因此,状态转移概率为

p(st+1st,at)=p(xt+1,zt+1xt,zt,ft)×p(Ht+1xt,zt,ft)×p(Lt+1Lt)×p(nt+1Lt,nt)\begin{aligned} p\left(s_{t+1} \mid s_{t}, a_{t}\right)=& p\left(x_{t+1}, z_{t+1} \mid x_{t}, z_{t}, \boldsymbol{f}_{t}\right) \\ & \times p\left(\boldsymbol{H}_{t+1} \mid x_{t}, z_{t}, \boldsymbol{f}_{t}\right) \times p\left(L_{t+1} \mid L_{t}\right) \\ & \times p\left(\boldsymbol{n}_{t+1} \mid L_{t}, \boldsymbol{n}_{t}\right) \end{aligned}

其中, p(xt+1,zt+1xt,zt,ft)p\left(x_{t+1}, z_{t+1} \mid x_{t}, z_{t}, \boldsymbol{f}_{t}\right) 是很容易通过基于无人机飞行行动(如图 4 )的 3D 位置状态转换获得, p(Ht+1xt,zt,ft)p\left(\boldsymbol{H}_{t+1} \mid x_{t}, z_{t}, \boldsymbol{f}_{t}\right) 很容易通过公式( 2 )和公式( 3 )获得, p(Lt+1Lt)p\left(L_{t+1} \mid L_{t}\right) 是通过交通灯状态转换(如图 3 )获得, p(nt+1Lt,nt)p\left(\boldsymbol{n}_{t+1} \mid L_{t}, \boldsymbol{n}_{t}\right) 很容易通过公式(9)∼(13)获得。

其次,讨论了每个区块内车辆数量的状态转换。这是一个随机过程。无人机的状态和动作不影响所有区块的车辆数量。设 λ1 和 λ2 分别为Flow 1 和 2 的新车到达的概率。

block 0、block 3、block 4中车辆数量的状态转换为

nt+10={nt2, if Lt=0nt1, if Lt=20, otherwise nt+13={nt0, if Lt=2,30, otherwise nt+14={nt0, if Lt=0,1,0, otherwise \begin{array}{l} n_{t+1}^{0}=\left\{\begin{array}{ll} n_{t}^{2}, & \text { if } L_{t}=0 \\ n_{t}^{1}, & \text { if } L_{t}=2 \\ 0, & \text { otherwise } \end{array}\right. \\ n_{t+1}^{3}=\left\{\begin{array}{ll} n_{t}^{0}, & \text { if } L_{t}=2,3 \\ 0, & \text { otherwise } \end{array}\right. \\ n_{t+1}^{4}=\left\{\begin{array}{ll} n_{t}^{0}, & \text { if } L_{t}=0,1, \\ 0, & \text { otherwise } \end{array}\right. \end{array}

公式( 9 )、( 10 )、( 11 )中的转移概率为 1 ,因为在 0 、 3 、 4 块中的转移是确定性的。而block 1 和block 2 中车辆数量的状态转移概率是不确定的,并且两者都受到当前车辆数量和红绿灯的影响。以交通灯状态 Lt=2L_t = 2 时的 block 1 为例,车辆数量的概率为

p(nt+11=1Lt=2)=λ1p(nt+11=0Lt=2)=1λ1\begin{array}{l} p\left(n_{t+1}^{1}=1 \mid L_{t}=2\right)=\lambda_{1} \\ p\left(n_{t+1}^{1}=0 \mid L_{t}=2\right)=1-\lambda_{1} \end{array}

(nt1=0,Lt2)\left(n_{t}^{1}=0, L_{t} \neq 2\right)(nt1=1,Lt2)\left(n_{t}^{1}=1, L_{t} \neq 2\right) 时,车辆数量的概率也以类似的方式得到。

第三,讨论了无人机三维位置的状态转换。它包括块转换和高度转换。无人机的高度转移如公式( 7 )表示,当无人机高度固定时,对应的位置状态转移图如图4所示,其中 {Si}i{0,1,2,3,4}\{S_i\}_{i\in \{0,1,2,3,4\}} 表示无人机所在的块:0 表示停留在当前块; { 1 、2 、 3 、 4 } 表示从0号区块飞向其他区块( 1 、 2 、 3 、 4 ); 5表示逆时针方向飞行; 6 表示从 1 、 2 、 3 、 4 区块到 0 区块的飞行; 7 表示顺时针方向飞行。

4.提出解决方案

在本节中,我们首先描述了动机,然后介绍了 Q-learning 和深度确定性策略梯度算法的概述,然后提出了不同控制目标的解决方案,最后给出了考虑 3D 飞行能量消耗的扩展解决方案。

A.动机

由于环境变量是未知且不可测量的,因此深度强化学习方法适用于该目标问题。例如, α1 和 α2 受建筑物的高度/密度、车辆的高度和大小等的影响。 β1 和 β2 具有时间依赖性,并受当前环境如天气的影响。虽然无人机可以使用装备的摄像机探测 LoS/NloS 链路,但由于几个原因,准确探测它们是非常具有挑战性的。首先,车辆上的接收器的位置应该被标记,以便检测。其次,由于接收机比车辆小得多,使用计算机视觉技术很难准确地检测接收机。第三,它要求汽车制造商标明接收器的位置,这可能在几年之内都不能满足。因此,准确地测试这些环境变量需要大量的劳动。即使环境变量已知,也很难获得最优策略。现有的作品在用户静止的情况下获得了 2D 飞行场景下的近最优策略,但由于无人机会调整其三维位置,车辆在交通灯的控制下会按自己的模式移动,因此无法解决我们的目标问题。

B.Q-learning

在我们的问题中 MDP 的状态转移概率是未知的,因为一些变量是未知的,如 α1 , α2 , λ1 和 λ2 。我们的问题不能直接用传统的 MDP 算法来解决,例如动态规划算法、策略迭代算法和值迭代算法。因此,我们采用强化学习( RL )方法。返回的状态被定义为折现未来回报的总和 i=tTγitr(si,ai)\sum_{i=t}^{T} \gamma^{i-t} r\left(s_{i}, a_{i}\right) ,其中 TT 是时段的总数, γ(0,1)\gamma \in(0,1) 是一个减少未来奖励的折扣系数,确保无数个奖励的总和仍然是有限的。

Qπ(st,at)=Eaiπ[i=tTγitr(si,ai)st,at]Q^{\pi}\left(s_{t}, a_{t}\right)=\mathbb{E}_{a_{i} \sim \pi}\left[\sum_{i=t}^{T} \gamma^{i-t} r\left(s_{i}, a_{i}\right) \mid s_{t}, a_{t}\right] 表示策略 π 下在状态 sts_t 采取 ata_t 行动后的期望收益。 Bellman 方程给出了传统 MDP 解的最优条件:

Qπ(st,at)=st+1,rtp(st+1,rtst,at)[rt+γmaxat+1Qπ(st+1,at+1)]Q^{\pi}\left(s_{t}, a_{t}\right)=\sum_{s_{t+1}, r_{t}} p\left(s_{t+1}, r_{t} \mid s_{t}, a_{t}\right)\left[r_{t}+\gamma \max _{a_{t+1}} Q^{\pi}\left(s_{t+1}, a_{t+1}\right)\right]

Q-learning 是经典的无模型 RL 算法。 Q-learning 的本质是探索与开发,其目的是通过与环境的相互作用实现预期收益的最大化。 Q(st,at)Q(s_t, a_t) 的更新为

Q(st,at)Q(st,at)+α[rt+γmaxat+1Q(st+1,at+1)Q(st,at)]\begin{array}{c} Q\left(s_{t}, a_{t}\right) \leftarrow Q\left(s_{t}, a_{t}\right)+\alpha\left[r_{t}+\gamma \max _{a_{t+1}} Q\left(s_{t+1}, a_{t+1}\right)\right. \left.-Q\left(s_{t}, a_{t}\right)\right] \end{array}

其中 α\alpha 是学习率。

Q-learning 使用 ϵgreedy\epsilon-greedy 策略[35]来选择一个动作,使agent大部分时间都是贪婪的行为,但在所有的动作中随机选择概率较小的 ϵ\epsilonϵgreedy\epsilon-greedy 策略的定义如下

at={argmaxaQ(st,a), with probability 1ϵ, a random action,  with probability ϵ.a_{t}=\left\{\begin{array}{ll} \arg \max _{a} Q\left(s_{t}, a\right), & \text { with probability } 1-\epsilon, \\ \text { a random action, } & \text { with probability } \epsilon . \end{array}\right.

Q-learning 算法如Alg. 1所示。第1行是初始化。每一次迭代中,内部循环都在第4 ~ 7行进行。第5行使用公式( 15 )选择一个操作,然后在第6行执行该操作。第7行更新q值。

5

由于一些限制, Q-learning 不能解决我们的问题。1) Q-learning 只能解决状态空间和行为空间较小的 MDP 问题。然而,我们的问题的状态空间和行为空间是非常大的。2) Q-learning 不能处理连续的状态或动作空间。无人机的传输功率分配动作是连续的。传动功率控制在现实中是一个连续的动作。如果将输电功率分配行为离散化,用 Q-learning 方法求解,结果可能会偏离最优。3) Q-learning 使用过多的计算资源会收敛缓慢,这在我们的问题中是不实际的。因此,我们采用深度确定性策略梯度算法来解决这个问题。

C.深度确定性策略梯度

深度确定性策略梯度( DDPG )方法利用深度神经网络同时逼近行动策略 π 和值函数 Q(s, a) ,该方法有两个优点:1)采用神经网络作为逼近器,本质上是将状态和动作空间压缩到更小的潜在参数空间;2)采用梯度下降法更新网络权值,大大加快了收敛速度,减少了计算时间。从而大大节省了内存和计算资源。在现实系统中,DDPG利用了AlphaGo zero和Atari游戏中引入的强大技能,包括经验回放缓冲区( experience replay buffer )、演员评论家方法( actor-critic approach )、软更新( soft update )和探索噪音( exploration noise )。

1)经验回放缓冲区( experience replay buffer ) RbR_b 存储过渡,将用于更新网络参数。在每个时隙 t ,一个转换 (st,at,rt,st+1)\left(s_{t}, a_{t}, r_{t}, s_{t+1}\right) 存储在 RbR_b 中。在一定的时间段后,每次迭代对 M=ΩM = | \Omega | 转换 {(sj,aj,rj,sj)}jΩ\left\{\left(s^{j}, a^{j}, r^{j}, s^{j}\right)\right\}_{j \in \Omega} 进行小批量的采样训练神经网络,其中 Ω\OmegaRbR_b 的采样转换指标集合。“经验回放缓冲区”有两个优点:1)启用了随机梯度递降方法;2)消除连续过渡之间的相关性。

**2)演员-评论家方法 **Actor-critic approach:评论家近似 Q value ,演员近似动作策略。该评价方法有两个神经网络:带参数 θQθ^Q 的在线 Q 网络 QQ 和带参数 θQθ^{Q^\prime} 的目标 Q 网络 QQ^\prime 。行动者有两种神经网络:带参数 θμ\theta^\mu 的在线政策网络 μ\mu 和带参数 θμθ^{\mu^\prime} 的目标政策网络 μ\mu^\prime 。这四个神经网络的训练将在下一小节中讨论。

3)软更新 Soft update 为了提高学习的稳定性,使用较低的学习速率 τ1\tau \ll 1 进行软更新。目标 Q 网络 QQ^\prime 和目标策略网络 μ\mu^\prime 的软更新如下:

θQτθQ+(1τ)θQ=θQ+τ(θQθQ)θμτθμ+(1τ)θμ=θμ+τ(θμθμ)\begin{array}{l} \theta^{Q^{\prime}} \leftarrow \tau \theta^{Q}+(1-\tau) \theta^{Q^{\prime}}=\theta^{Q^{\prime}}+\tau\left(\theta^{Q}-\theta^{Q^{\prime}}\right) \\ \theta^{\mu^{\prime}} \leftarrow \tau \theta^{\mu}+(1-\tau) \theta^{\mu^{\prime}}=\theta^{\mu^{\prime}}+\tau\left(\theta^{\mu}-\theta^{\mu^{\prime}}\right) \end{array}

4)探测噪声 Exploration noise 在行动者的目标策略中加入探测噪声,输出一个新的动作:

at=μ(stθμ)+Nta_{t}=\mu^{\prime}\left(s_{t} \mid \theta^{\mu^{\prime}}\right)+\mathcal{N}_{t}

在探索和开发之间存在一种权衡,而探索是独立于学习过程的。在式( 18 )中加入探测噪声,既保证了无人机在现有策略 μ(stθμ)\mu^{\prime}\left(s_{t} \mid \theta^{\mu^{\prime}}\right) 预测的动作之外具有一定的探测新动作的概率,又避免了无人机陷入局部最优状态。

D.以深度强化学习为基础的解决方案

UAV 有两个传输控制,功率和通道。我们使用功率分配作为主要的控制目标有两个原因。1)在 OFDMA 中,一旦确定了功率分配,就很容易得到信道分配。根据文献[ 40 ]的定理 4 ,在 OFDMA 中,如果所有链路的权值都与我们的奖励函数( 5 )相同,则发送端应该在每个时隙中向信道最强的接收端发送消息。在我们的问题中,由于信道状态( LoS 或 NLoS )是一个随机过程,因此不能确定最强信道。 DDPG 倾向于将更多的权力分配给概率较大的最强的渠道,因此,根据权力分配行为很容易获得渠道分配。2)功率分配是连续的, DDPG 适合处理这些动作。然而,如果使用 DDPG 进行信道分配,由于信道分配是离散的,尤其是在高峰时段,信道的数量通常很大(如 200 个),因此动作变量的数量会非常大,收敛速度也会非常慢。我们选择功率控制或飞行作为控制目标,因为控制功率和飞行比控制通道更有效。在 OFDMA 中进行功率分配,可以间接得到最佳的信道分配策略。基于以上分析,我们提出了三种算法:

  • 功率控制 PowerControl :无人机利用 actor 网络在固定的三维位置调整传输功率分配,每个时隙的信道由算法 Alg.2 分配给车辆。
  • 飞行控制 FlightControl :无人机利用 actor 网络调整 3D 飞行,传输功率和信道分配在每个时点平均分配给每个车辆。
  • 联合控制 JointControl :无人机利用 actor 网络调整其三维飞行和传输功率分配,每个时隙的信道由算法 Alg.2 分配给车辆。

为了在块之间分配通道,我们引入一个变量,表示在块 i 中车辆的平均分配功率:

ρˉti={ρtinti, if nti00, otherwise \bar{\rho}_{t}^{i}=\left\{\begin{array}{ll} \frac{\rho_{t}^{i}}{n_{t}^{i}}, & \text { if } n_{t}^{i} \neq 0 \\ 0, & \text { otherwise } \end{array}\right.

信道分配算法如 Alg. 2 所示,它是在获得功率分配动作后执行的。如上所述,当功率分配已知时, OFDMA 中实现了最佳的信道分配。第 1 行是初始化。行 2 ~ 3 计算和排序 $ \overline{\boldsymbol{\rho}}{t}= \left{\bar{\rho}{t}^{i}\right}_{i \in{0,1,2,3,4}} $ 。第 5 行将最大通道数分配给当前可能最强的通道,第 6 行更新剩余的通道总数。给出了基于 DDPG 的算法。

6

在 Alg. 3 中给出了基于 DDPG 的算法。该算法有两部分:初始化和主进程。首先,我们在第 1 ~ 3 行描述初始化。在第 1 行,所有状态都初始化:红绿灯 L 是初始化为 0 ,所有块的汽车的数量 n 是 0 ,无人机的块和高度是随机的,和第 i 块的信道状态 HiH^i 使用相同的概率设置为 LoS 或 NLoS。注意, PowerControl 、 FlightControl 和 JointControl 中的动作空间 DDPG 控件是不同的。第 2 行初始化批评家和演员的参数。第 3 行分配了一个体验重放缓冲区 RbR_b

7

其次,介绍了主要流程。第 5 行初始化一个随机过程以进行操作探索。第 6 行接收初始状态 s1s_1 。让 DDPG 控制动作,让 DDPG 控制无人机的所有动作。第 8 行根据 aˉt\bar{a}_{t} 和探测噪声 NtN_t 选择一个动作。第 9 ~ 10 行结合了 Alg. 2 中的通道分配动作和 $$\bar{a}_{t}$$ 表示PowerControl 中的固定 3D 位置的 ata_t 。第 11 ~ 12 行结合了相同的传输功率,相同的信道分配动作和 aˉt\bar{a}_{t} ( 3D flight )表示 FlightControl 中的 ata_t 。第 13 ~ 14 行结合了 3D flight 动作, Alg. 2 中的通道分配动作以及 aˉt\bar{a}_{t} 表示 JointControl 中的 ata_t 。第 15 行执行无人机的动作,然后无人机收到一个奖励,所有状态都被更新。第 16 行存储了到 RbR_b 的过渡。在第 17 行中,从 RbR_b 中采样了一个随机的小批转换。第 18 行设置批评家在线 Q-network 的 yjy^j值。第 19 ~ 21 行更新所有网络参数。

Alg. 3 中基于 DDPG 的算法本质上是 Alg. 1 中的近似 Q-learning 方法。第 8 行中的探测噪声近似于 Q-learning 中公式( 15 )的第二种情况。 Alg. 3 的第 18 ~ 19 行使 [rt+γmaxat+1Q(st+1,at+1)Q(st,at)]\left[r_{t}+\gamma \max _{a_{t+1}} Q\left(s_{t+1}, a_{t+1}\right)-Q\left(s_{t}, a_{t}\right)\right] 在 Alg. 1 的第 7 行收敛。

Alg. 3 的第 20 行近似于 Q-learning 中公式( 15 )的第一个情况,因为它们都是为了获得最大 q 值的策略。在 Q-learning 中, Alg. 3 第 21 行 QQ^\prime 的软更新正好为公式( 14 ),其中 τ\tauα\alpha 为学习速率。接下来,我们将讨论所提议的解决方案的培训和测试阶段。

1) 在训练阶段,我们训练演员和批评家,并存储他们的神经网络参数。图 5 显示了数据流和参数更新过程。训练阶段分为两部分。首先,通过从体验回放缓冲区 RbR_b 中采样的随机小批量转换训练 Q 和 µ 。其次,通过软更新对 QQ^\primeμ\mu^\prime 进行训练。

8

训练流程如下:从 RbR_b 中抽样一个小批量的 M 变换 {(stj,atj,rtj,st+1j)}jΩ\left\{\left(s_{t}^{j}, a_{t}^{j}, r_{t}^{j}, s_{t+1}^{j}\right)\right\}_{j \in \Omega} ,其中 Ω\OmegaΩ=M|\Omega| = MRbR_b 的抽样变换的指标集。那么 RbR_b 输出两个数据流: {rtj,st+1j}jΩμ\left\{r_{t}^{j}, s_{t+1}^{j}\right\}_{j \in \Omega} \rightarrow \mu^{\prime}{stj,atj}jΩQ\left\{s_{t}^{j}, a_{t}^{j}\right\}_{j \in \Omega} \rightarrow Q . μ\mu^\prime 的输出 {rtj,st+1j,μ(st+1jθμ)}jΩ\left\{r_{t}^{j}, s_{t+1}^{j}, \mu^{\prime}\left(s_{t+1}^{j} \mid \theta^{\mu^{\prime}}\right)\right\}_{j \in \Omega}QQ^\prime 来计算 {ytj}jΩ\{y_t^j\}_{j \in \Omega}。然后 Q 计算并输出 {aQ(s,aθQ)s=stj,a=μ(stj)}jΩ\left\{\left.\nabla_{a} Q\left(s, a \mid \theta^{Q}\right)\right|_{s=s_{t}^{j}, a=\mu\left(s_{t}^{j}\right)}\right\}_{j \in \Omega}μ\mu 。µ 通过公式( 22 )更新参数。然后分别在公式( 16 )和公式( 17 )中对 QQ^\primeμ\mu^\prime 执行两次软更新。

批评家的目标Q-网络 QQ^\prime 和在线Q-网络 QQ 的数据流如下: QQ^\prime{(rtj,st+1j,μ(st+1jθμ))}jΩ\left\{\left(r_{t}^{j}, s_{t+1}^{j}, \mu^{\prime}\left(s_{t+1}^{j} \mid \theta^{\mu^{\prime}}\right)\right)\right\}_{j \in \Omega}{ytj}jΩ\{y_t^j\}_{j \in \Omega} 作为对 QQ 的输入和输出。 ytjy_t^j 通过下式计算

ytj=rtj+γQ(st+1j,μ(st+1jθμ)θQ)y_{t}^{j}=r_{t}^{j}+\gamma Q^{\prime}\left(s_{t+1}^{j}, \mu^{\prime}\left(s_{t+1}^{j} \mid \theta^{\mu^{\prime}}\right) \mid \theta^{Q^{\prime}}\right)

QQ{{stj,atj}jΩ,}\left\{\left\{s_{t}^{j}, a_{t}^{j}\right\}_{j \in \Omega},\right\} 为输入和输出 {aQ(s,aθQ)s=sj,a=μ(stj)}jΩ\left\{\left.\nabla_{a} Q\left(s, a \mid \theta^{Q}\right)\right|_{s=s_{*}^{j}, a=\mu\left(s_{t}^{j}\right)}\right\}_{j \in \Omega} 为 µ 来更新公式( 22 )中的参数,其中 {stj}jΩ\{s_{t}^{j}\}_{j\in \Omega}RbR_b 中采样, μ(stj)=argmaxaQ(stj,a)\mu\left(s_{t}^{j}\right)=\arg \max _{a} Q\left(s_{t}^{j}, a\right)

演员在线策略网络 µ 和目标策略网络 μ\mu^\prime 的数据流如下所示。 Q 输出 {aQ(s,aθQ)s=stj,a=μ(stj)}jΩ\left\{\left.\nabla_{a} Q\left(s, a \mid \theta^{Q}\right)\right|_{s=s_{t}^{j}, a=\mu\left(s_{t}^{j}\right)}\right\}_{j \in \Omega} 到 µ , µ 按照公式( 22 )进行参数更新。 μ\mu^\prime{rtj,st+1j}jΩ\{r^j_t, s^j_{t+1}\}_{j\in \Omega} 为输入和输出 {rtj,st+1j,μ(st+1jθμ)}jΩ\left\{r_{t}^{j}, s_{t+1}^{j}, \mu^{\prime}\left(s_{t+1}^{j} \mid \theta^{\mu^{\prime}}\right)\right\}_{j \in \Omega}QQ^\prime 计算公式( 20 )中的 {ytj}jΩ\{y_t^j\}_{j \in \Omega} ,其中 {rtj,st+1j}jΩ\{r^j_t, s^j_{t+1}\}_{j\in \Omega}RbR_b 中采样。

四种神经网络( QQQQ^\primeμ\muμ\mu^\prime )的参数更新如下:在线Q-网络 Q 通过最小化 L2 范数损失函数 Loss(θQ)Loss (\theta^Q) 来更新其参数,使其 Q 值适合 ytjy_t^j :

θQLosst(θQ)=θQ[1Mj=1M(ytjQ(stj,atjθQ))2]\nabla_{\theta^{Q}} \operatorname{Loss}_{t}\left(\theta^{Q}\right)=\nabla_{\theta^{Q}}\left[\frac{1}{M} \sum_{j=1}^{M}\left(y_{t}^{j}-Q\left(s_{t}^{j}, a_{t}^{j} \mid \theta^{Q}\right)\right)^{2}\right]

目标Q -网络 QQ^\prime 按照公式( 16 )更新其参数 θQθ^{Q^\prime} 。在线政策网络 μ\muθμθ^\mu 的参数按照链式法则进行更新:

Est[θμQ(s,aθQ)s=st,a=μ(stθμ)]=Est[aQ(s,aθQ)s=st,a=μ(st)θμμ(sθμ)s=st]\mathbb{E}_{s_{t}}\left[\left.\nabla_{\theta^{\mu}} Q\left(s, a \mid \theta^{Q}\right)\right|_{s=s_{t}, a=\mu\left(s_{t} \mid \theta^{\mu}\right)}\right] =\mathbb{E}_{s_{t}}\left[\left.\left.\nabla_{a} Q\left(s, a \mid \theta^{Q}\right)\right|_{s=s_{t}, a=\mu\left(s_{t}\right)} \nabla_{\theta^{\mu}} \mu\left(s \mid \theta^{\mu}\right)\right|_{s=s_{t}}\right]

目标政策网络 μ\mu^\prime 的参数 θμ\theta^{\mu^\prime} 按照公式( 17 )更新。

在每个时隙 t ,将环境中的当前状态 sts_t 传递到 μ\mu^\primeμ\mu^\prime 计算无人机的目标策略 μ(st)θμ\mu^{\prime}\left(s_{t}\right) \mid \theta^{\mu^{\prime}} 。最后,在 $\mu^{\prime}\left(s_{t}\mid \theta{\mu{\prime}}\right) $ 上加入探测噪声 N ,得到无人机在公式( 18 )处的动作。

2) 在测试阶段,根据所存储的参数恢复演员目标策略网络的神经网络 μ\mu^\prime ;这样,就不需要将转换存储到体验重播缓冲区 RbR_b 。在给定当前状态 sts_t 的情况下,我们使用 μ\mu^\prime 来得到无人机的最佳动作 μ(stθμ)\mu^\prime(s_t \mid \theta^{\mu^\prime}) 。注意,神经网络 μ(stθμ)\mu^\prime(s_t \mid \theta^{\mu^\prime}) 没有添加任何噪声,因为所有神经网络都经过了训练,无人机通过 μ\mu^\prime 得到了最优的动作。最后,无人机执行动作 μ(stθμ)\mu^\prime(s_t \mid \theta^{\mu^\prime})

E. 3D飞行能耗的延伸

无人机的能量主要用于通信和三维飞行两部分。上述 Alg. 3 中提出的解决方案没有考虑 3Dflight 的能耗。在本小节中,我们将讨论如何将三维飞行的能量消耗纳入算法。为了鼓励或抑制无人机在不同能量消耗下不同方向的三维飞行动作,我们对奖励函数和 DDPG 框架进行了修改。

无人机的目标是最大限度地提高每能量单位的总吞吐量,因为无人机的电池容量有限。例如,无人机大疆 Mavic Air 满载时只能飞行 21 分钟。考虑到无人机三维飞行的能量消耗远大于通信的能量消耗,我们只使用前者作为总能量消耗。因此,将奖励函数( 5 )修改为

rˉ(st,at)=1e(at)i{0,1,2,3,4}bntictilog(1+ρtihtibctiσ2)\bar{r}\left(s_{t}, a_{t}\right)=\frac{1}{e\left(a_{t}\right)} \sum_{i \in\{0,1,2,3,4\}} b n_{t}^{i} c_{t}^{i} \log \left(1+\frac{\rho_{t}^{i} h_{t}^{i}}{b c_{t}^{i} \sigma^{2}}\right)

其中, e(at)e(a_t) 为 t 时刻采取行动的能耗。我们的能耗设置跟随无人机大疆 Mavic Air 。如式( 6 )所示,无人机在每个时间槽中有三个垂直飞行动作。如果无人机持续向下、水平或向上移动,直到耗尽 3D 飞行能量,则假设飞行时间分别为 27 , 21 , 17 分钟。若时间段持续时间设置为 6 秒,则可分别飞行 270 、 210 和 170 个时间段。因此, e(at)e(a_t)的表达式为

e(at)={1270Efull, if moving downward 5 meters 1210Efull, if moving horizontally 1170Efull, if moving upward 5 meters e\left(a_{t}\right)=\left\{\begin{array}{ll} \frac{1}{270} E_{\mathrm{full}}, & \text { if moving downward } 5 \text { meters } \\ \frac{1}{210} E_{\mathrm{full}}, & \text { if moving horizontally } \\ \frac{1}{170} E_{\mathrm{full}}, & \text { if moving upward } 5 \text { meters } \end{array}\right.

其中 EfullE_{\mathrm{full}} 是无人机电池满时的总能量。设 δ(t)\delta(t) 为以下预测误差

δ(t)=rˉ(st,at)Q(st,at)\delta(t)=\bar{r}\left(s_{t}, a_{t}\right)-Q\left(s_{t}, a_{t}\right)

其中, δ(t)\delta(t) 计算实际回报 rˉ(st,at)\bar{r}\left(s_{t}, a_{t}\right) 和预期回报 Q(st,at)Q\left(s_{t}, a_{t}\right) 之间的差值。为了使无人机从公式( 14 )中的预测误差 δ(t)\delta(t) 中学习,而不是新 Q 值与旧 Q 值的差值, Q 值按以下规则更新:

Q(st,at)Q(st,at)+αδ(t)Q(st,at)Q(st,at)+α(rˉ(st,at)Q(st,at)),\begin{array}{l} Q\left(s_{t}, a_{t}\right) \leftarrow Q\left(s_{t}, a_{t}\right)+\alpha \delta(t) \Leftrightarrow \\ Q\left(s_{t}, a_{t}\right) \leftarrow Q\left(s_{t}, a_{t}\right)+\alpha\left(\bar{r}\left(s_{t}, a_{t}\right)-Q\left(s_{t}, a_{t}\right)\right), \end{array}

其中, αα 是类似于公式( 14 )的学习率。

引入 α+\alpha^+α\alpha^- 分别表示 δ(t)0\delta(t) \ge 0δ(t)<0\delta(t) \lt 0 时的学习速率。因此,通过适当设置 α+\alpha^+α\alpha^- 的值,无人机可以选择激活或不激活。受文献[ 42 ]的启发, Q-learning 中 Q 值的更新修改如下:

Q(st,at)Q(st,at)+{α+δ(t), if δ(t)0αδ(t), if δ(t)<0Q\left(s_{t}, a_{t}\right) \leftarrow Q\left(s_{t}, a_{t}\right)+\left\{\begin{array}{l} \alpha^{+} \delta(t), \text { if } \delta(t) \geq 0 \\ \alpha^{-} \delta(t), \text { if } \delta(t)<0 \end{array}\right.

我们将预测误差 δ(t)\delta(t) 定义为实际奖励与评论家在线 Q 网络输出之间的差值:

δ(t)=rˉ(st,at)Q(st,atθQ)\delta(t)=\bar{r}\left(s_{t}, a_{t}\right)-Q\left(s_{t}, a_{t} \mid \theta^{Q}\right)

我们分别用 τ+\tau^+τ\tau^- 表示 δ(t)0\delta(t) \ge 0δ(t)<0\delta(t) \lt 0 时的权值。批评家的目标 Q -网络 QQ^\prime 的更新是

θQ{τ+θQ+(1τ+)θQ, if δ(t)0τθQ+(1τ)θQ, if δ(t)<0\theta^{Q^{\prime}} \leftarrow\left\{\begin{array}{ll} \tau^{+} \theta^{Q}+\left(1-\tau^{+}\right) \theta^{Q^{\prime}}, & \text { if } \delta(t) \geq 0 \\ \tau^{-} \theta^{Q}+\left(1-\tau^{-}\right) \theta^{Q^{\prime}}, & \text { if } \delta(t)<0 \end{array}\right.

演员目标策略网络 µµ^\prime 的更新为

θμ{τ+θμ+(1τ+)θμ, if δ(t)0τθμ+(1τ)θμ, if δ(t)<0\theta^{\mu^{\prime}} \leftarrow\left\{\begin{array}{l} \tau^{+} \theta^{\mu}+\left(1-\tau^{+}\right) \theta^{\mu^{\prime}}, \text { if } \delta(t) \geq 0 \\ \tau^{-} \theta^{\mu}+\left(1-\tau^{-}\right) \theta^{\mu^{\prime}}, \text { if } \delta(t)<0 \end{array}\right.

τ+>τ\tau^+ \gt \tau^- 时,此时无人机处于激活状态,倾向于移动。若 τ+<τ\tau^+ \lt \tau^- ,则无人机处于不活动状态,倾向于停留。当 $\tau^+ = \tau^- $ 时,表示无人机处于非激活状态或非激活状态。为了逼近 Q 值,我们引入类似于公式( 20 )的 yˉtj\bar{y}^j_t ,然后用批评家的在线 Q -网络 Q 来拟合它。我们优化损失函数

θQLosst(θQ)=θQ[1Mj=1M(yˉtjQ(stj,atjθQ))2]\nabla_{\theta^{Q}} \operatorname{Loss}_{t}\left(\theta^{Q}\right)=\nabla_{\theta^{Q}}\left[\frac{1}{M} \sum_{j=1}^{M}\left(\bar{y}_{t}^{j}-Q\left(s_{t}^{j}, a_{t}^{j} \mid \theta^{Q}\right)\right)^{2}\right]

式中, yˉtj=rˉtj\bar{y}_{t}^{j} = \bar{r}^j_t

考虑到 3D 飞行的能耗,我们对 MDP 、 DDPG 框架和基于 DDPG 的算法进行了修改:

1.MDP 修改如下。状态空间 S = (L, x, z, n, H, E),其中 E 为无人机电池的能量。能量的变化如下

Et+1=max{Ete(at),0}E_{t+1}=\max \left\{E_{t}-e\left(a_{t}\right), 0\right\}

MDP 制定和状态转换的其他部分与第 3- C 节相同。

2.DDPG 框架中有三处修改:a) 评论者的目标 Q-network QQ^\primeyˉj=rˉj\bar{y}^j = \bar{r}^j 提供给评论者的在线 Q-network Q,而不是公式( 20 )中的 yjy^j 。b) 批评家目标Q -网络 QQ^\prime 的更新为公式( 29 ),而不是公式( 16 )。c) 行动者目标策略网络 μ\mu^\prime 的更新由公式( 17 )改为公式( 30 )。

3.基于 DDPG 的算法是在 Alg. 3 的基础上改进的。在每一集的开始,初始化无人机的能量状态为满。在一个训练步骤的每一个时间步中,能量状态更新为公式( 32 ),当能量状态 Et0E_t \le 0 时,此训练步骤终止。奖励函数被公式( 23 )所取代。

5.效果评估

对于图 2 中的单向双流交叉口,我们提出了深度强化学习算法的最优性验证。然后,我们研究一个更真实的路口,如图 7 所示,并给出我们的仿真结果。

我们的模拟是在一台装有 Linux 操作系统、 200 GB 内存、两台 Intel® Xeon® Gold 5118 CPUs@2.30 GHz 、特斯拉 v100r001 pcie GPU 的服务器上执行的。

Alg. 3 的实现包括两个部分:为我们的场景构建环境(包括流量和通信模型),以及使用 TensorFlow 中的 DDPG 算法。

A.深度强化学习的最优性验证

参数设置概述见表 2 。在仿真中,有三种类型的参数: DDPG 算法参数、通信参数和无人机/车辆参数。

9

首先,描述了 DDPG 算法的参数。训练步骤的数量是 256 次,每步的时间段是 256 个,所以总时间段的数量是 65,536 个。经验重放缓冲区容量为 10,000 ,目标网络的学习速率 τ\tau 为 0.001 。小批处理大小 M 为 512 。训练数据集在第 10000 个时隙中是满的,在接下来的 256 × 256 - 10000 = 55,536 个时隙中更新。在所有 256 × 256 = 65,536 个时隙中,测试数据集是实时的。

其次,我们描述了通信参数。 α1\alpha_1α2\alpha_2 分别设为 9.6 和 0.28 ,这是城市地区的共同值。 β1 = 3, β2 = 0.01 ,在路径损耗建模中得到了广泛的应用。时间段的持续时间设置为 6 秒,和被占领的红色或绿色交通灯 N 是 10 ,即 60 秒构成红/绿持续时间的,在城市里随处可见,可以确保车辆在块可以得到下一个块在一个时间段。白功率谱密度 σ2\sigma^2 设置为 -130 dBm/Hz。考虑到通信能力有限,无人机总传输功率 P 设置为 6 W 。信道 C 的总数是 10 个。每个通道 b 的带宽为 100 KHz。因此,所有信道的总带宽为 1 MHz 。分配给一辆汽车的最大功率 ρmax\rho_{max} 为 3 W ,分配给一辆汽车的最大通道数 cmaxc_{max} 为 5 。假设每辆车的功率控制有 4 个离散值 (0,1,2,3) 。

第三,描述无人机/车辆参数。 λ 被设定为 0.1 ~ 0.7 。路障 d^\hat{d} 的长度设置为 3 米。块的距离很容易计算如下: D (1,0) = d^\hat{d} 和 D(1、3)= 2 d^\hat{d} ,其中 D (i, j) 是从块 i 到块 j 的欧几里得距离。我们假设汽车块 1 和 2 的到来遵循相同的 λ 的范围为 0.1∼0.7 的二项分布参数。折现因子 γ\gamma 为 0.9 。

图 2 中简化场景的假设如下:为了使状态空间较小,便于验证,我们假设所有通信链路的信道状态为 LoS ,无人机高度固定为 150 米,无人机只能调整其水平飞行控制和发射控制。交通灯状态假定有两个值(红色或绿色)。

在提出的解决方案中,神经网络的配置是基于 DDPG 动作空间的配置。神经网络由输入层、全连接层和输出层组成。 actor 中完全连接的层数设置为 4 。

理论上,深度强化学习算法(包括 DDPG 算法)解决了 MDP 问题,以更少的内存和计算资源实现了最优结果。我们提供了 Alg. 3 中基于 DDPG 的算法在图 2 中单向两流交叉口的最优性验证。原因如下: (1) 这种简化场景下的 MDP 问题被明确定义,使用 Python MDP 工具箱可以得到理论上的最优策略; (ii) 在我们将 TensorFlow 中的 DDPG 算法应用到图 7 中更加真实的交叉口场景之前,这个最优性验证过程也为我们提供了一个很好的代码调试过程。

10

基于 DDPG 的算法的结果与使用 Python MDP Toolbox 的策略迭代算法的结果匹配(作为最优策略)。策略迭代算法和基于 DDPG 的算法得到的总吞吐量如图 6 中的虚线和实线所示。因此,基于 DDPG 的算法可以获得接近最优的策略。我们看到, JointControl 中的总吞吐量是最大的,远远高于 PowerControl 和 FlightControl 。这与我们认为的权力和飞行分配的联合控制比两者的控制都好是一致的。 PowerControl 的性能优于 FlightControl 。在所有算法中,吞吐量随着车辆到达概率 λ 的增大而增大,当 λ≥0.6 时,由于交通拥堵导致吞吐量饱和。

11

B.更真实的交通模型

我们在图 7 中考虑一个更现实的交叉口模型。共有 33 个街区,有 4 个入口 (26、28、30、32街区) 和 4 个出口(25、27、29、31街区)。块 i{2,4,6,8}i \in \{2,4,6,8\} 内的车辆直、左转、右转概率为 gisg^s_igilg^l_igirg^r_i ,使 gis+gil+gir=1g^s_i+ g^l_i + g^r_i = 1。我们假设当交通灯是绿色时,车辆可以右转。

现在,我们描述与上一小节不同的设置。折现因子 γ\gamma 为 0.4 ~ 0.9 。无人机总传输功率 P 设置为 1 ~ 6 W 。信道 C 的总数量为 100 ~ 200 个,比 V-A 频道的数量多。每个信道 b 的带宽为 5 KHz ,因此,所有信道的总带宽为 0.5 ~ 1 MHz 。分配给车辆的最大功率 ρmax\rho_{max} 为 0.9 W ,分配给车辆的最大信道数 cmaxc_{max} 为 50 。无人机的最小高度和最大高度分别为 10 米和 200 米。将车辆直线行驶、左转、右转的概率 (gisgilgir)(g^s_i、g^l_i、g^r_i) 分别设为 0.4、0.3、0.3 ,假设 2、4、6、8 街区的概率相同。假设 26、28、30、32 街区的车辆到达量在 0.1 ~ 0.7 范围内符合参数 λ 相同的二项分布。

无人机的水平和垂直飞行动作如下。我们假设无人机的块为 0 ~ 8 ,因为在交叉口 block 0 的车辆数量通常是最大的,并且无人机不会移动到离交叉口的块较远的块。此外,在一个时间段内,我们假设无人机可以停留或只移动到其相邻的街区。无人机的垂直飞行动作由公式( 6 )设置, PowerControl 中无人机停留在 0 块,高度为 150 米。

C .基线计划

我们比较了两个基线方案。为了保证通信系统的公平性,通常采用传输功率和信道分配相等的方法。因此,它们被用于基线方案。

第一个基线方案为 Cycle ,即无人机在固定高度(如 150 米)逆时针循环,无人机在每个时隙平均分配给每个车辆的传输功率和信道。无人机在不考虑车流的情况下,周期性地沿固定轨迹运动。

第二个基线方案为 Greedy ,即在固定高度(如 150 米),无人机贪婪地移动到车辆数量最大的块上。如果一个不相邻的块拥有最多的车辆,则无人机必须移动到 0 块,然后移动到该块。无人机还在每个时隙内将传输功率和信道平均分配给每个车辆。无人机试图通过靠近车辆数量最多的街区来服务。

D .仿真结果

训练时间约为 4 小时,测试时间几乎是实时的,因为它只使用了训练良好的目标策略网络。接下来,我们首先展示了损失函数的收敛性,然后展示了总吞吐量与折扣因子、总传输功率、总信道数和车辆到达概率之间的关系,最后给出了三维飞行时的总吞吐量和无人机飞行时间与能量百分比之间的关系。

PowerControl、FlightControl 和 JointControl 训练阶段损耗函数的收敛性表明,该神经网络训练良好。如图 8 所示, P = 6, C = 200,λ = 0.5, γ = 0.9 ,时间段为 10000 ~ 11000 。前 10,000 个时隙没有显示出来,因为在 0 ~ 10,000 个时隙期间,体验回放缓冲区还没有达到它的容量。我们可以看到,三种算法的损失函数都收敛于时隙 11000 之后。本文中的其他指标默认在测试阶段进行测量。

12

当 P = 6, C = 200, λ = 0.5 时,总吞吐量与折扣因子 γ\gamma 在图 9 中绘制。可以看出,当 γ\gamma 变化时,三种算法的吞吐量都是稳定的;与 PowerControl 和 FlightControl 相比, JointControl 实现了更高的总吞吐量。 PowerControl 比 FlightControl 获得更高的吞吐量,因为 PowerControl 将功率和信道分配给最强的信道,而 FlightControl 仅通过调整无人机的 3D 位置来增强最强的信道,而功率和信道均等分配远不是 OFDMA 中的最佳策略。

13

总吞吐量与总传输功率 (P = 1 ~ 6) 和总信道数 (C = 100 ~ 200) 的关系如图 10 和图 11 所示,其中设 λ = 0.5, γ = 0.9 。我们看到, JointControl 分别在不同的传输功率和信道预算下实现了最好的性能。当总传输功率或总信道数增加时,所有算法的总吞吐量都增加。 PowerControl 和 FlightControl 只对传输功率或 3Dflight 进行调节,而 JointControl 对两者进行共同调节,所以性能最好。与 Cycle 和 Greedy 算法相比,基于 DDPG 的算法的总吞吐量有很大的提高。 Greedy 的表现比 Cycle 稍微好一点,因为 Greedy 会尽量靠近拥有最多车辆的区块。

14

15

总吞吐量与车辆到达概率 λ 的关系如图 12 所示。需要注意的是,交叉口的通行能力为 2 个单位,即交叉口最多可以同时服务两个车流,因此不能服务 λ 很高的车流,如 λ = 0.8 和 λ = 0.9 。我们看到,当λ增加时,即更多的车辆到达交叉口,总吞吐量增加。然而,当 λ 变高时,例如 λ = 0.6 ,由于交通拥挤,总吞吐量饱和。

16

接下来,我们对考虑到 3Dflight 的能耗的指标进行测试。在 JointControl 中, 3D 飞行的总吞吐量与能量百分比如图 13 所示。当 τ+\tau^+ 增加时,总吞吐量几乎增加。我们得到,如果无人机在三维飞行中更加活跃,将有助于提高总吞吐量。但是,由于无人机在新的奖励函数中需要考虑能量消耗,因此总吞吐量的提高不是很明显( 23 )。此外,当 τ+\tau^+ 越大时,总吞吐量的方差越大,因为无人机更倾向于通过更多的冒险获得更高的回报。

17

图 14 所示为三维飞行中无人机的飞行时间与能量百分比。当 τ=0.001\tau^−= 0.001τ+=0.0008\tau^+ = 0.0008 时,无人机的飞行时间最长,此时无人机处于无活动状态。当 τ=0.001\tau^−= 0.001τ+=0.0012\tau^+= 0.0012 时,无人机的飞行时间最短,因为无人机处于主动状态,更倾向于飞行。当 τ=τ+=0.001\tau^−=\tau^+ = 0.001 时,无人机的飞行时间介于上述两种情况之间。如果三维飞行的能量百分比增加,三种情况下无人机的飞行时间均线性增加。

18

6.结论

我们研究了一个无人机辅助的车辆网络,其中无人机作为一个中继,以最大化无人机和车辆之间的总吞吐量。我们重点研究了无人机在三维飞行下可以调整其传输控制(功率和信道)的下行通信。我们将问题表述为 MDP 问题,探讨了无人机和车辆在不同动作下的状态转换,然后提出了三种基于 DDPG 算法的深度强化学习方案,最后,通过修改奖励函数和 DDPG 框架,将其扩展到考虑无人机 3D 飞行的能耗。在一个简化的状态空间和动作空间较小的场景中,验证了基于 DDPG 的算法的最优性。通过仿真结果,我们证明了该算法在更真实的交通场景下的性能优于两种基线方案。

未来,我们将考虑多架无人机组成中继网络来辅助车辆网络的场景,并研究覆盖重叠/概率、中继选择、能量收集通信和无人机合作通信协议。我们使用服务器对提出的解决方案进行了预训练,我们希望无人机在未来可以训练神经网络,如果在边缘应用光和低能耗 GPU 的话。


无人机辅助车载网络的深度强化学习
https://fulequn.github.io/2022/02/Article202202121/
作者
Fulequn
发布于
2022年2月12日
许可协议