Press "Enter" to skip to content

SafetyNet:自动驾驶中机器学习策略的安全规划方法

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

arXiv上2021年9月28日上传论文“SafetyNet: Safe planning for real-world self-driving vehicles using machine-learned policies“,来自Level 5, Toyota收购的Lyft自动驾驶团队。

本文介绍的是,通过来自于专家演示的训练,实现一个安全自动驾驶控制系统。因为机器学习(ML)方法存在安全问题,风险不可预测,故此加入一个基于规则的退却层(rule-based fallback layer),对ML决策做健全检查(sanity checks),这样可减少ML规划器的碰撞95%。整个实验采用300小时的驾驶数据做模仿学习(IL),并在三番市进行了测试。

 

更多信息参见 Autonomy 2.0 – 2022-SafetyNet

 

代码 GitHub – lyft/l5kit: L5Kit – level5.lyft.com

 

如图是SafeNet的基本框架:ML规划给出轨迹预测,通过一个fallback layer进行验证。

下面的图像是一个SafeNet在三番市区进行自动驾驶的例子:

如图是模型的架构图:类似谷歌WayMo的VectorNet,一个分级图网络;采用PointNet网络进行输入信息(车辆姿态和大小,其他智体的姿态、大小和目标类型,HD地图的静态信息和动态信息,以及路线规划routing)的局部编码,基于Transformer做全局嵌入推理智体和地图特征之间的交互。这个结构会通过运动解码器做控制信号,基于自行车模型。

网络训练基于模仿学习,加入扰动,扩展分布减少covariance shift的影响。损失函数考虑曲率kt和抖动jt的因素改进舒适度,即

这里补充一下运动解码器的模型如下:

在fallback层,考虑几个维度进行轨迹评估:

dynamic feasibility :包括约束的longitudinal jerk, longitudinal acceleration, curvature, curvature rate, lateral acceleration, 和 steering jerk (curvature rate X velocity);
legality:交通规则,比如stop sign、红灯、离开道路或者让路等等
collision probability:碰撞检测

这样给轨迹做标记【Feasible, Infeasible】,最后产生一个最接近ML预测轨迹的Feasible结果。

 

训练规模如此:

fallback层的影响:

实验的性能比较:ML规划和ML规划+fallback层

SafetyNet将 ML 规划器与基于规则的系统fallback层相结合,与纯基于机器学习的系统相比,安全性和舒适性指标得到改进,在具有挑战性的旧金山街道测试。

 

今后可将fallback层细化,不那幺保守,不增加被动性。另外,可以借鉴基于模型的强化学习 (RL) 、离线 RL 或数据驱动模拟的闭环训练等进行改进。

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注