如何看待华为2024年4月24日发布的ADS3.0使用了端到端的自动驾驶?

华为2024年4月24日发布的ADS3.0,去除了BEV,保留了GOD通用障碍物识别网络,并在决策和控制使用了端到端的人工智能?与特斯拉比有哪些不同?
关注者
286
被浏览
293,185

106 个回答

华为这个planning那边的“端到端”这段时间看多了已经逐渐无感,但因为华为软硬一体的能力,我对其传感器这边的“端到端”反而非常感兴趣。端到端是有两头的,我们不能只关注后面pnc那端,传感器这一侧能否继续延伸也是很重要的。

虽然我经常在网上吹激光雷达,但我也非常清楚激光雷达的缺点:雨雾尘水花带来的噪点、镜像点、高反膨胀、鬼影等,这些问题之前是通过点云分割网络来解决的,处理过程中我也常常感叹:如果像特斯拉用图像raw信息一样,能拿到激光雷达的原始信息就好了,误检漏检一定能大幅降低。

其实激光光斑打到雨雾尘这些细小物体上虽然有回波,但也会有部分激光没有被阻挡继续前进,直到打到真正的障碍物上产生最后一次回波,而且就算同样是回波,雨雾尘的波形形状与真正的障碍物也会有所不同,也就是说通过多次回波的波形信息,我们是能够分辨出哪些是雨雾尘哪些是真正的障碍物的。同理镜像点、鬼影也是会产生多次的回波,我常常在想,如果我们能拿到多次回波的波形数据,可能这些问题就都可以解决了。

但毕竟现在的激光雷达的点频已经非常高了,如果让厂商把完整波形发出来,带宽是遭不住的,所以必须要提取一些特征以供后面的神经网络进行处理。但究竟要提取什么样的特征,一般来说人拍脑袋的想法往往不会很好,还是得交给神经网络端到端地学习之后才能得到比较好的效果。之后可以将底层的部分特征提取放在激光雷达的端侧来进行压缩,压缩之后再发出来以减小带宽压力。

可惜的是,制造激光雷达的成本和研发周期都太长了,我们无力自研,而跟供应商合作的话,首先供应商能不能把原始数据通过特殊手段发出来都是问题,更别说配合我们修改端侧FPGA的代码,将可能要经常需要更改的神经网络结构、参数写进去了。

所以说,如果要真正发挥出激光雷达的最大潜力,是一定要自研或者与激光雷达供应商深度合作的。而纵观国内的智驾公司,只有华为和大疆有这个能力,这也是为什么智驾四小龙“华大地魔”,华为和大疆排在前两位的原因吧。

华为ADS3.0的激光雷达端侧AI模型

另外,禾赛也推出了端侧AI引擎,但因为他们拿不到后面的主干网络,所以这个AI引擎在端侧就要输出结果而不是输出特征,吃不到端到端全局优化的好处。

这个世界,真是打脸越来越快,我前几天刚说特斯拉的端到端这条路不行,结果今天华为也来了。

既然华为也要搞端到端,那说明端到端这条路有其不可忽略的优势。

ADS2.0,根据我获得信息,还属于强规则的智驾系统。

华为的程序员,天天面对自家智驾用户的海量真实用例,规则估计都写吐了吧。

后期的维护真的是一种灾难,虽然华为的系统架构师水平应该很高,程序员都是算法大牛,但是。。。真实情况只有他们清楚了。

我能稍微体会一下,因为我也开发过类似的智能系统,稍微增加一丁点东西,规则就增加一箩筐。

对于无人驾驶这种场景,规则就是无底洞。


端到端看上去倒是一种解脱,因为这相当于把人工编写规则这一过程自动化了,还有一定的泛化能力。

缺点是,端到端模型是黑盒,训练出来的不一定是你想要的,比较难控制;另一个,是维护比较慢,也就是修复比较慢,毕竟训练一个新模型挺费时间和金钱的;

相信,经过ADS2.0这一段时间的用例积累,数据积累已经足够多了,所以模型的更新频率降低不少,另一个,可以增加干预层,相当于人工规则和模型共同使用,这样可以解决这个问题。

所以,我觉得,

华为ADS3.0应该是人工规则+端到端模型,并逐渐减少人工规则的数量,这也是比较稳妥的方案。听说,特斯拉完全是端到端,不写规则,那真的敢想敢干啊,自动驾驶不是炫技,每一个失误可能导致严重后果,而现在的模型能力是有明显边界的,这种激进方案我不看好。多说无益,最终看疗效吧。

最后,不知道我的问界M9能上ADS3.0吗?有没有业内人员偷偷告诉我啊。。