基于凸优化的无人驾驶汽车转向角安全性验证
CSTR:
作者:
作者单位:

作者简介:

吴慧慧(1992-),女,博士生,CCF学生会员,主要研究领域为无人驾驶,安全性验证;张亚楠(1987-),女,硕士,主要研究领域为智能网联汽车网络安全,数据安全等信息安全技术与政策研究;侯刚(1982-),男,博士,副教授,CCF专业会员,主要研究领域为智能系统,对抗机器学习,信息物理系统,可信软件,形式化方法,模型检测;渡边政彦(1962-),男,博士,主要研究领域为嵌入式软件设计,软件工程,形式化验证,自动驾驶算法及仿真技术;王洁(1979-),男,博士,副教授,博士生导师,CCF专业会员,主要研究领域为并行体系结构,异构计算,演化硬件与容错计算,网络信息安全;孔维强(1978-),男,博士,教授,博士生导师,CCF专业会员,主要研究领域为软件工程,模型检测,形式化方法

通讯作者:

孔维强,wqkong@dlut.edu.cn

中图分类号:

基金项目:

国家重点研发计划(2020YFB2009500);中央高校基本科研业务费专项资金(DUT20TD107,DUT22ZD203);NTTDATA智能汽车研究所


Verification of Steering Angle Safety for Self-driving Cars Using Convex Optimization
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    无人驾驶汽车系统过大的输入-输出空间(即输入和输出的所有可能组合),使得为其提供形式化保证变成一项具有挑战性的任务.提出了一种自动验证技术,通过结合凸优化和深度学习验证工具DLV来保障无人驾驶汽车的转向角安全.DLV是一个用于自动验证图像分类神经网络安全性的框架.运用故障安全轨迹规划中的凸优化技术解决预测转向角的判断问题,然后拓展DLV来实现无人驾驶汽车转向角安全性的验证.在NVIDIA的端到端无人驾驶架构上说明所提出方法的优势,该架构是许多现代无人驾驶汽车的关键组成部分.实验结果表明:对于给定的区域和操作集,如果存在对抗性错误分类(即不正确的转向决策),该技术可以成功地找到,因此可以实现安全验证(如果在所有DNN层都没有发现错误分类,在这种情况下,网络关于转向决策可以说是稳定或可靠的)或证伪(在这种情况下,这些对抗性反例可以用于后续微调网络).

    Abstract:

    Providing formal guarantees for self-driving cars is a challenging task, since input-output space (i.e., all possible combinations of inputs and outputs) is too large to explore exhaustively. This paper presents an automated verification technique ensuring steering angle safety for self-driving cars by incorporating convex optimization and deep learning verification (DLV). DLV is an automated verification framework for safety of image classification neural networks. The DLV is extended by convex optimization technique in fail-safe trajectory planning to solve the judgement problem of predicted steering angle, and thus, to achieve verification of steering angle safety for self-driving cars. The benefits of the proposed approach are demonstrated on the NVIDIA's end-to-end self-driving architecture, which is a crucial ingredient in many modern self-driving cars. The experimental results indicate that the proposed technique can successfully find adversarial misclassifications (i.e., incorrect steering decisions) within given regions and family of manipulations if they exist. Therefore, the safety verification can be achieved (if no misclassification is found for all DNN layers, in which case the network can be said to be stable or reliable w.r.t. steering decisions) or falsification (in which case the adversarial examples can be used to fine-tune the network).

    参考文献
    相似文献
    引证文献
引用本文

吴慧慧,张亚楠,侯刚,渡边政彦,王洁,孔维强.基于凸优化的无人驾驶汽车转向角安全性验证.软件学报,2023,34(6):2586-2605

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2022-09-05
  • 最后修改日期:2022-10-10
  • 录用日期:
  • 在线发布日期: 2023-01-13
  • 出版日期: 2023-06-06
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号