你认为,距离我们可以完全在路上解放双手,在车里看书、开会甚至睡觉还需要多久?Elon Musk说,在2020年将会有100万辆特斯拉的Robo Taxi行驶在路上,它们可以在无人驾驶的情况下实现接送乘客,在你上班的时候帮你去挣点外快。
这听起来很有未来感,但是特斯拉并不准备称其为L4甚至L5级自动驾驶,原因很简单,我们距离真正的自动驾驶还差得很远。
特斯拉描绘下的自动驾驶
我们都知道,特斯拉一直坚信,既然人可以通过视觉来实现驾驶车辆,车也一定可以通过视觉的方式实现,所以我们看到特斯拉在车身四周安置了多个摄像头,也因为目前的处理器算力不够而开始自己开发芯片,但是,只靠视觉真的就万事大吉了么?
相信你还记得,特斯拉的自动驾驶第一次出事故的时候,就是因为摄像头把一辆蓝色的箱式货车识别成了蓝天,所以没有减速,导致车祸的发生,而车企一直在强调的自动驾驶仍然需要更多的行驶里程累积,也有很大一部分原因源自视觉识别。对于计算机来说,识别一个物体其实是一个试错的过程,只能通过告诉它那些是错的,它才能实现正确的识别,而这件事是需要大量的实验来支撑的。
不过,其实各个车企也用了类似毫米波雷达以及超声波雷达等辅助传感器来捕捉更精确的信息和数据来辅助摄像头识别物体,但它还是少了一个方面,交流。
因为需要交流,所以我们需要车联网
在一个没有红绿的十字路口,当两辆及以上的车同时抵达的时候,驾驶员通常会用手势和眼神的交流来确定谁先走,但是放在自动驾驶上,如果只靠视觉传感器来判断,而当数量变成3辆车的时候,难度将会成倍增长,这对于算法、处理器以及实验规模的要求也将会更加苛刻。
这就需要车与车之间有一个交流,来确定究竟是谁先来的,谁应该先走,也能让整个过程更加流畅,同时对于处理器的要求也更低,这个概念其实早就有了,叫做V2X(Vehicle to X未知),也就是车与各种物体之间的联系,跟车之间的联系,可以让道路交通减少许多突发状况,因为每一辆车的动作,都是经过周围车辆甚至更远的后续车辆默许的;跟红绿灯之间的联系,可以确定什么样的速度可以不需要等待,或者提前减速以获得平稳的乘坐体验; 跟人之间的联系(通过手机),可以提前预判有多少人要过马路,提前做出减速和避让等。
也就是说,V2X解决的问题,是用更精确的数据信息,来避免汽车进行过多的运算。
写在最后
视觉当然应该是自动驾驶的主要判断因素,但是,如果只靠视觉感官的话,距离我们真正实现全自动驾驶的时代应该还有很长的一段路要走,而V2X的加入,算是对于目前解决方案的一个优化,只不过问题在于,它需要对很多城市的技术建设进行改造,至于哪种方式需要我们等待的时间更长,不过有一点可以肯定的是,V2X这种方式,有更多的行业能帮得上忙。
上一篇:乘联会预测6月销量为159万辆
下一篇:恒大首款新能源汽车即将来临