7月1日—2日,由盖世汽车主办的“2021第四届全球自动驾驶论坛” 于上海隆重召开。本次论坛主要聚焦自动驾驶关键技术,如自动驾驶感知、智能驾驶域控制器、芯片、计算平台、无人驾驶不同的落地场景等话题展开讨论,以促进自动驾驶相关技术进一步发展、完善。下面是IPG Automotive中国总经理黄晓带来主题演讲:“无人驾驶的仿真开发”。

IPG Automotive中国黄晓: 无人驾驶的仿真开发

IPG Automotive中国总经理黄晓

感谢大家回来,下一位演讲嘉宾是我本人,我是IPG Automotive中国总经理——黄晓,接下来我想阐述的是:虚拟仿真是如何助力主机厂和tier1进行仿真开发和应对系统复杂性。虚拟开发需要什么?需要关注什么?IPG能提供什么?从模型在环,环境在环,车辆在环,无缝开发给大家提供什么样的帮助?以及HPC和云方面的应用也是最近比较火热的话题。

如何确认无人驾驶系统可达到预期功能?作为主机厂需要做很多实验。那这个实验怎么做?如果没有办法用实车进行操作,那么把这些危险场景,边缘场景在一个虚拟场景里面进行仿真和测试,可能会是比较好的一个解决方案。

我们IPG就提供这样的解决方案,我们的主力产品CarMaker相信大家多少有些了解,那么在无人驾驶平台上面,客户期待CarMaker能做什么呢?第一个是虚拟样车,这个有别于传统的车辆动力学模型集,CarMaker提供的是虚拟样车,它含有很好的车辆动力学模型,但更超越车辆动力学模型,它能集成物理传感器,软件栈和各种接口。第二个,希望它从融合到功能实现这样一个完整模型链的支持。第三个,可扩展性,适用性。第四个,实时性的能力。如何把车辆动力学物理传感器模型全部在实时平台和环境下面把它使用起来,目前来说,CarMaker是做得最好的。最重要的是我们有众多的客户和使用群体来帮助我们背书,例如说华为。

简单做一个宣传,IPG产品除了大家比较了解的软件,我们有自己实时仿真平台,同时也提供仿真服务,但是基本上我们不太会涉及到测试服务,主要是帮助客户搭建和创新在开发流程和仿真方法和应用上面。

虚拟样车,首先要有一个非常好的可参数化的车辆动力学模型,CarMaker从诞生之初(1984)在该领域一直处于领先的地位。在最新的版本里面,我们也加入了MBS模型,所有子系统的分类与真实样车是一样的。

我们的模型在参数化做完之后,可以通过我们提供的一系列测试标定的方法来跟整车真实表现进行对比。车辆模型不单单是车辆动力学,它跟实车一样,可以集成待测对象,可以是C代码,可以是ECU,亦可以是中央计算单元。

有了车辆模型之后,我们还希望它可以直接集成AD算法(AD软件栈),它的工作流基本上是由CarMaker提供感知和数据生成,提供这些传感器模型,V2X数据,GPS数据,嵌入HD,把真实的data给到用户无人驾驶的软件栈,再输入信号,控制信号给到控制栈进行控制。这里可以看一下Demo。

—VCR—

这里面有两个点需要注意的,第一,视频中的车辆在运行过程当中功能都是OK的,但它的制动比较差,它在左转,直线加速、减速时的抖动是非常厉害的。这就是我刚才说的,无人驾驶开发做车辆动力学的重要性。第二,我们用物理传感器模型搭建了一个传感器,然后通过不同的通讯协议进行对接,这些工作IPG中国是可以帮助到客户的,我们有本地的技术团队帮助客户做集成的工作。

CarMaker不仅可以搭建车辆动力学的模型,我们最新还发布了MovieNX渲染工具。大家对于一个渲染的工具有什么的期待呢?首先,它可以实现真实或者接近照片级的显示效果。其次,它跟我的物理传感器模型是完全集成化的。最后,它可以集成智能交通的仿真,3D模型和相应的库。

我们来看一下,这段影片给大家展示的是MovieNX可达到最佳的渲染效果。

—VCR—

这是两个多月前推出的渲染工具。接下来大家更关心的可能是我们的传感器,简而言之CarMaker涵盖了所有类型的传感器,激光雷达,毫米波雷达,摄像头,超声波,这些所有的模型都提供不同级别的精度,从最低的理想传感器模型到半物理传感器模型,再到纯物理传感器模型,有一点需要强调的是CarMaker所有的模型,包括物理传感器模型都是可以在实时环境下面,就是说跟任何一个实时硬件平台进行通讯。我们再简单的通过一个视频来给大家演示一下。

—VCR—

这里我需要补充两点,所有的物理模型都可以按照你自己的要求去配置,包括传输协议,传输接口。

讲完Scenario,对于测试人员来说比较关心的是如何用简单办法获得测试用例和测试场景。我总结了几个,第一个是手动创建,CarMaker提供一个手动编辑器(Manual)。第二种是基于高清地图的导入以及同时在这段地图上面采集到的所有交通场景。现在服务商也在做同样的事情,我们跟这些服务商都有类似的合作接口。第三种是Open X的导入,作为场景的道路,CarMaker是非常快的在适应这样的变革,我们现在可以原生导入1.5以上所有的版本,简而言之,我们现在已经有初步的版本可以轻松把它导入到CarMaker。

ASAM现在是发布了OSC1.0,一个是他们在做OSCX,一个是2.0发布,我们OSA1.0版本基本上可以做到轻松导入。OSC2.0我们也在做预研,很快我们也会去适用于它。

最后大家可能比较关心的一个话题是CarMaker集成能力。例如, 它可以集成ROS,C/C++,Python,Fmi等等,包括不同的仿真工具,有HD Map,有客户使用第三方的工具,以及客户自研的工具,我们可以做一个开放性的集成,包括仿真流,工作流,产品生命周期管理的工具,自动化工具,数据分析。我们意图是基于CarMaker集成平台围绕大家不同的工具和能力给客户提供一个完整的生态环境。

前面讲到CarMaker在软件方面所提供的功能,那如何把这些功能应用到HIL环境里面呢?因为无人驾驶HIL也是很热的话题。做无人驾驶可能涉及到很多东西,最终待测对象是中央计算平台(高性能计算平台),如何将他们模拟出来?CarMaker提供不同级别的传感器,它可以去做直接物理传感器模型给到待测对象,或者说做半真实的拟真的,比如说毫米波雷达模拟器,超声波模拟器,摄像头视频黑箱等等各种方案我们均有提供,最终我们把这些给到计算平台,计算平台再给出控制信号,最终形成一个完整的闭环。

大家可能会问,我现在有这么多传感器,例如说有20-30个传感器,怎么在一个系统里面把它同时同步实时和支持呢?我们有GPU分布式的功能,把不同的传感器指定分布到不同的GPU上面。

比如这个案例用14个Camera,5个激光雷达,6个毫米波雷达,12个USS,这里大部分用到物理传感器模型,客户那边用来8台上位机,16款8080显卡,我们帮它分布,保证传感器实时性的运行,最终跟待测对象,甚至外延驾驶模拟器,底盘控制系统,甚至加上三电形成整车的测试解决方案。

下面用几分钟讲一下云解决方案,这是腾讯云跟我们做了一个联合的解决方案。

—VCR—

因为时间关系,我就不讲太多了。这里面腾讯提供的场景也是可以直接导入到CarMaker。我们不但可以跟腾讯合作,我们其实是开放的平台,跟AWS,华为等等都可以进行合作,我们可以帮助客户进行适配。最后总结视频3分钟,请大家观看。

—VCR—

在场景里面配置各种各样的传感器模型,从感知到数据的提取,它还可以提供自动的语义分割。交通情况预测路径的规划,用户可以任意延展,通过云和本地的HPC进行快速验证,谢谢大家。