mapg_training_opeator 功能概述
关于 CTDE 策略梯度算法训练过程的主函数。
定义一些超参数,神经网络和优化器,然后生成假数据并计算策略梯度损失。
最后,使用优化器更新网络参数。在实际实践中,这些伪数据应该被与环境交互得到的真实数据替换。
from pg import pg_data, pg_error
def mapg_training_opeator() -> None:
设置必要的超参数。
batch_size, agent_num, local_state_shape, global_state_shape, action_shape = 4, 5, 10, 20, 6
Entropy bonus 的权重,有助于智能体进行探索。
entropy_weight = 0.001
对未来奖励的折扣因子
discount_factor = 0.99
根据运行环境设定,决定 tensor 放置于 cpu 或是 cuda 。
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
定义 CTDE 多智能体神经网络和优化器。
model = CTDEActorCriticNetwork(agent_num, local_state_shape, global_state_shape, action_shape)
model.to(device)
Adam 是深度强化学习中最常用的优化器。如果你想使用 weight decay,你应当使用 torch.optim.AdamW 优化器
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
定义对应随机生成的伪数据,其格式与真实和环境交互得到的数据相同。
要注意,数据和网络应当在相同的设备上 (cpu 或 cuda)。
简单起见,我们这里假定一个 batch 的数据构成了一个完整的 episode。
在真实实践中,一个训练 batch 可能是多个 episode 混在一起的结果。我们常常使用 done 这个变量来区分不同的 episodes。
local_state = torch.randn(batch_size, agent_num, local_state_shape).to(device)
global_state = torch.randn(batch_size, global_state_shape).to(device)
action = torch.randint(0, action_shape, (batch_size, agent_num)).to(device)
reward = torch.randn(batch_size, agent_num).to(device)
对于最基础的策略梯度算法,累积回报值由带折扣因子的累积奖励计算得来。
return_ = torch.zeros_like(reward)
for i in reversed(range(batch_size)):
return_[i] = reward[i] + (discount_factor * return_[i + 1] if i + 1 < batch_size else 0)
Actor-Critic 网络前向计算.
output = model(local_state, global_state)
准备用于计算策略梯度损失函数的数据。
data = pg_data(output.logit, action, return_)
计算策略梯度算法的损失函数。
loss = pg_error(data)
策略损失函数部分和熵损失函数部分的加权和。
注意,这里我们只使用了网络的“策略部分”(即 Actor 部分)来计算策略损失函数。
如果你想要使用网络的“价值部分”(即 Critic 部分),你需要定义相应的价值损失函数并将其加入最终的总损失函数之中。
total_loss = loss.policy_loss - entropy_weight * loss.entropy_loss
PyTorch 的反向传播及参数更新。
optimizer.zero_grad()
total_loss.backward()
optimizer.step()
print('mapg_training_operator is ok')
maac_training_opeator 功能概述
关于 CTDE Actor-Critic 算法的训练过程的主函数。
定义一些超参数,神经网络和优化器,然后生成随机伪数据并计算相关损失函数。在实践中,训练数据应被替换为与环境互动获得的结果。
最后,使用优化器更新网络参数。在本文中,网络的策略部分指的是 Actor,而价值部分网络则指的是 Critic。
def maac_training_opeator() -> None:
设置必要的超参数。
batch_size, agent_num, local_state_shape, global_state_shape, action_shape = 4, 5, 10, 20, 6
Entropy bonus 的权重,有助于智能体进行探索。
entropy_weight = 0.001
价值损失函数的权重,用于平衡损失函数值的大小。
value_weight = 0.5
对未来奖励的折扣因子
discount_factor = 0.99
根据运行环境设定,决定 tensor 放置于 cpu 或是 cuda 。
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
定义多智能体神经网络和优化器。
model = CTDEActorCriticNetwork(agent_num, local_state_shape, global_state_shape, action_shape)
model.to(device)
Adam 是深度强化学习中最常用的优化器。如果你想使用 weight decay,你应当使用 torch.optim.AdamW 优化器
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
定义对应随机生成的伪数据,其格式与真实和环境交互得到的数据相同。
要注意,数据和网络应当在相同的设备上 (cpu 或 cuda)。
简单起见,我们这里假定一个 batch 的数据构成了一个完整的 episode。
在真实实践中,一个训练 batch 可能是多个 episode 混在一起的结果。我们常常使用 done 这个变量来区分不同的 episodes。
local_state = torch.randn(batch_size, agent_num, local_state_shape).to(device)
global_state = torch.randn(batch_size, global_state_shape).to(device)
action = torch.randint(0, action_shape, (batch_size, agent_num)).to(device)
reward = torch.randn(batch_size, agent_num).to(device)
累积回报值可以使用多种不同的方式进行计算,在这里我们使用由带折扣因子的累积奖励。
你也可以使用 generalized advantage estimation (GAE), n-step 等其他方式计算该值。
return_ = torch.zeros_like(reward)
for i in reversed(range(batch_size)):
return_[i] = reward[i] + (discount_factor * return_[i + 1] if i + 1 < batch_size else 0)
Actor-Critic 网络前向计算。
output = model(local_state, global_state)
保证 value 的形状为 $$(B, 1)$$, 这样可以使得这个张量在后续计算中可以自动广播出不同智能体的维度。
value = output.value
准备用于计算策略梯度损失函数的数据。
detach 操作可以使得在计算损失函数的梯度时, value 的梯度不进行反向传播。
data = pg_data(output.logit, action, value.detach())
计算策略梯度损失函数。
loss = pg_error(data)
计算价值损失函数。
需要注意的是,由于我们对于各个智能体都使用同一个全局的状态来计算价值函数,因此总的目标价值应当是各个智能体的回报之和。
value_loss = torch.nn.functional.mse_loss(value, return_.sum(dim=-1, keepdim=True))
策略损失函数、价值损失函数、熵损失函数的加权和。
total_loss = loss.policy_loss + value_weight * value_loss - entropy_weight * loss.entropy_loss
PyTorch 的反向传播及参数更新。
optimizer.zero_grad()
total_loss.backward()
optimizer.step()
print('maac_training_operator is ok')
如果读者关于本文档有任何问题和建议,可以在 GitHub 提 issue 或是直接发邮件给我们 (opendilab@pjlab.org.cn) 。