自驾驶离成熟还早。

zhangulei

干部。干是一种美德。
注册
2018-01-06
消息
6,850
荣誉分数
1,323
声望点数
223
人工智能缺陷与误觉:让机器产生幻觉的“怪异事件”
琳达·格迪斯Linda Geddes
  • 2019年 1月 22日
_105126023_p06tjlkp.jpg
Image copyrightGETTY IMAGES
乘客看到了停车标志,突然感到一阵恐慌,因为他坐的汽车反而开始加速。当他看到前面的铁轨上一列火车向他们疾驰而来时,他张开嘴对前面的司机大声喊叫,但他突然意识到汽车前坐并没有司机。列车以每小时125英里的速度撞上来,压碎了这辆自动驾驶汽车,乘客当场死亡。

这个场景是虚构的,但是凸显了当前人工智能框架中一个非常真实的缺陷。在过去的几年里,已经有越来越多的例子表明,机器可以被误导,看见或听见根本不存在的东西。如果出现“噪音”会干扰到人工智能的识别系统,就可能产生误觉。在最坏的情况下,他们可能会因“幻觉”导致上面一样危险的场景,尽管停车标志在人眼中清晰可见,但机器却未能识别出来。

_105126021_p06tjl90.jpg
Image copyrightKEVIN EYKHOLT ET AL
Image caption“停止”标志上一些简单的贴纸就足以使机器视觉算法看不见这个告示,而在人类的眼中依然显而易见。
人工智能领域工作者将这些小故障描述为“对抗性的例子”,或者有时更简单地说是“怪异事件”。

美国麻省理工学院(Massachusetts Institute of Technology)的计算机科学家阿塔利(Anish Athalye)表示:“我们可以把这些东西看作是人工智能网络会以某种方式处理的输入信息,但机器在看到这些输入信息后会做出一些意想不到的反应。”

看物体
到目前为止,人们主要关注的是视觉识别系统。阿塔利自己已经证明,将一张猫的图像稍加改动,人眼看来仍是一只标准的猫,却被所谓的神经网络误解为是鳄梨酱。神经网络是一种机器学习算法,极大地推动了现代人工智能技术的发展。这类神经网络视觉识别系统已经被用来增强你的智能手机的能力,让手机在不被告知是谁的情况下对你的朋友照片进行身份标记,或者识别你手机照片中的其他物体。

最近,阿塔利和他的同事们把注意力转向了实际物体。发现只要稍微调整一下它们的纹理和颜色,他的团队就可以骗过人工智能,把这些物体认作别的东西。在一个案例中,棒球被误认为是一杯浓缩咖啡,而在另一个案例中,3D打印的海龟被误认为是步枪。还有其他例子,他们制造了约200个3D打印物体,这些物体以类似的方式欺骗了电脑。今天当我们开始在家里使用机器人、在空中运用自动驾驶无人机、在街道上行驶自动驾驶汽车时,机器人的这种误觉开始抛出一些令人担忧的可能性。

阿塔利说, “起初,这只是一种好奇,然而,随着这些智能系统越来越多地部署在现实世界中,人们正将其视为一个潜在的安全问题。”

以目前正在进行实地试验的无人驾驶汽车为例:这些汽车通常依靠复杂的深度学习神经网络导航,并告诉它们该做什么。

但在去年,研究人员证明,仅仅只在路标上粘一两张小贴纸,神经网络就可能受骗,将道路上的“停车”标志误认为限速标志。

_105126025_p06tjklm.jpg
Image copyrightMIT
Image caption尽管对于机器学习算法,让海龟看起来像步枪似乎是无害的,但研究人员担心,随着人工智能在现实世界中的应用,可能会带来一些危险后果。
听声音
神经网络并不是唯一使用的机器学习框架,但其他的人工智能框架似乎也容易遭受这些怪异事件的影响。并且不限于视觉识别系统。

谷歌大脑(Google Brain)正在研发智能机器。谷歌大脑的研究科学家卡里尼(Nicholas Carlini)说,“在我见过的每一个领域,从图像分类到自动语音识别,再到翻译,神经网络都可能受到攻击,导致输入信号被错误分类。”卡里尼作了展示,加上一些摩擦的背景噪音后,“没有数据集的文章是无用的”这句话的读音,机器会误译为“好,谷歌要浏览evil.com”。而且它不仅限于语音讲话。在另一个例子中,巴赫(Bach)的第一号无伴奏大提琴组曲(Cello Suit 1)中的一段音乐节选被记录为“语言可以嵌入音乐”。

在卡里尼看来,这些对抗性的例子“最终证明,哪怕在非常简单的任务上,机器学习也没有达到人类的能力”。

内在原理
人工神经网络是大致模仿大脑(即生物神经网络)处理视觉信息的功能并从中学习方法。想象一个小孩正在学习认识猫是什么东西:当他们见到这种动物的次数越来越多时,就会开始注意到这种动物的一些固定模式,发现这团叫做猫的东西有四条腿,有柔软的皮毛、两只尖耳朵、杏仁状的眼睛和一条毛茸茸的长尾巴。在儿童的视觉皮层(大脑中处理视觉信息的区域)内,多层神经元会对视觉细节做出反应,如水平和垂直的线条,使儿童能够构建一幅世界的神经“图画”,并从中学习视觉识别。

神经网络的工作原理与此类似,获取的数据通过多层人工神经元网络传输进行信息处理,在接受到成百上千个相同物体的样本(通常由人类标记)的训练之后,神经网络开始建立此物体的视觉识别模式,从而能够在其后认得出正在观看的东西是这种物体。其中最复杂的系统采用“深度学习”,这意味着需要拥有更多的信息处理层。

_105126657_p06tjk58.jpg
Image copyrightMIT
Image caption稍微改变物体的纹理,研究人员能够让一个3D打印的棒球看起来像一杯浓缩咖啡。
然而,尽管计算机科学家了解人工神经网络如何工作,但他们并不一定知道在处理大数据时的具体细节。阿塔利说, “我们目前对神经网络的理解还不够,比如说,无法准确解释为什么会存在对抗性例子,也不知道如何解决这个问题。”

部分问题可能与现有技术被设计用来解决的任务的性质有关,例如区分猫和狗的图像。为了做到这一点,神经网络技术将处理大量猫和狗的模样信息,直到有足够的数据点来区分两者。

研究机器学习框架可靠性和安全性的麻省理工学院计算机科学家麦德里(Aleksander Madry)说,“我们机器学习框架的主要目标是'就平均值而言'有良好的表现。当机器识别大多数狗的图像表现很好时,你感到鼓舞,但总会有一些狗的图像让机器困惑,无法识别。”

或许一种解决方案是用更有挑战性的图像来训练神经网络。这可以使人工神经网络免受异常值的影响。

麦德里说, “这无疑是朝着正确方向迈出的一步。”虽然这种方法看起来确实使框架更加强大,但也可能有一些限制,因为有许多方法可以改变图像或物体的外观从而产生混淆。

一个真正强大的图像分类器会复制"相似性"对人类的作用,因而可以认出一个孩子涂鸦的猫和一张猫的照片以及一只现实生活中移动的猫代表的是同一样东西。尽管深度学习神经网络令人印象深刻,但在对物体进行分类、感知周遭环境或处理突发事件方面,仍无法与人脑匹敌。

如果我们想要开发出能够在现实世界中发挥作用的真正智能机器,或许我们应该回到人脑上来,更好地理解人脑是如何解决这些问题的。

捆绑问题
虽然神经网络是受到人类视觉皮层的启发,但越来越多的人认识到这种相似性只是表面现象。一个关键的区别在于,除了识别物体边缘的线条或物体本身等视觉特征外,我们的大脑还对这些特征之间的关系进行编码,因此,物体的边缘就构成了这个物体的一部分。这使我们能够对我们所看到的模式赋予意义。

“当你或我看着一只猫时,我们看到了构成猫的所有特征,以及它们之间的相互关系,” 牛津大学理论神经科学和人工智能基金会(Oxford Foundation for theory Neuroscience and Artificial Intelligence)的斯特林格(Simon Stringer)如此说。“这种相互'捆绑的'信息是我们理解世界的能力和我们的一般智力的基础。”

这个起关键作用的捆绑信息在当代的人工神经网络中是缺失的。

斯特林格解释说, “如果你还没有解决捆绑问题,你可能会意识到场景中的某个地方有一只猫,但你不知道它在哪里,也不知道场景中的哪些特征是这只猫的一部分。”

_105126659_p06tk9yc.jpg
Image copyrightGETTY IMAGES
Image caption对我们的耳朵来说,一段古典音乐听起来就是乐器的交响乐,但这段音乐若稍作修改,人工智能可能会理解为是一个语音指令。
为了简单易行,构建当代人工神经框架的工程师忽略了真实人脑神经元的一些特性,而科技界才刚刚开始明白这些特性非常重要。神经元通过将动作电位(action potentials)或“峰电位”(spikes)信号发送到身体的各个部位来进行交流,这就造成了神经元传输的时间延迟。个体神经元之间在传递信息的速度上也有差异,有些快,有些慢。许多神经元在决定是否放电时,似乎会密切关注它们接收到的脉冲的时机。

“人工神经网络有这个属性,即所有神经元完全相同,但大脑中的神经元却有不同形态,这让我意识到,人脑神经元的差异性不是无关紧要的,”布里斯托大学(University of Bristol)的神经系统科学家鲍尔斯(Jeffrey Bowers)说。他正在调查大脑哪些方面的功能未被当前人工神经网络所采用。

另一个不同之处在于,人工合成神经网络是通过一系列人工神经元层向一个方向传输信号。但斯特林格说,“在人类大脑皮层中,自上而下的连接和自下而上的神经元连接是一样多。”

为了更好地理解人脑的工作原理,他的实验室对人脑进行了计算机模拟。当他们最近调整他们的模拟,将这些关于真实神经元的时间和组织的信息整合到一起,然后用一系列的视觉图像对计算机进行训练时,他们发现计算机的模拟处理信息的方式发生了根本性的转变。

他们开始看到更复杂的活动模式的出现,而不是所有神经元同时放电。其中一个人工神经元子群其作用似乎是信息守门人。这个神经元子群只有在整个系统所接受的某个视觉场景的所有低级和高级特性信息同时到达时才会放电。

斯特林格认为,这些“捆绑神经元”的行为就像大脑中的结婚证,使神经元之间的关系正式化,并提供了一种方法来验证两个看似相关的信号是否真的相关。通过这种方式,大脑可以检测出现在视觉场景中的两条对角线和一条曲线是否真的代表了一个特征,比如猫的耳朵,或者是完全不相关的东西。

斯特林格说, “我们的假设是,视觉大脑中呈现的捆绑特征,以及在我们的生物强化神经网络中的复制,可能在增强生物视觉的稳健性方面发挥重要作用,包括对物体、面孔和人类行为的识别。”

斯特林格的研究小组目前正在寻找证据,证明真实的人类大脑中存在这样的神经元。他们还在开发“混合”神经网络,将这些新信息结合进人工神经网络,看看是否能产生一种更强大的机器学习形式。

鲍尔斯说, “目前还不清楚这是否在真的大脑中发生,但这确实很吸引人,并突出了一些有趣的可能性。”

斯特林格的团队将要测试的一件事是,他们受生物大脑启发的神经网络是否能够可靠地区分一个老人是在家中跌倒,或只是坐着不动,或者是正在放下购买的日用品。

斯特林格说,“对于今天的机器视觉算法来说,这仍然是一个非常困难的问题,然而对人脑则是轻而易举之事。”他还与位于英国威尔特郡(Wiltshire)波顿唐(Porton Down)的国防科技实验室(Defence Science and Technology Laboratory)合作,开发他神经系统框架的下一代增强版。这个增强版可以用于军事,比如从安装在自动无人机上的智能摄像头中发现敌方坦克。

斯特林格的目标是在20年内将老鼠等级的智能赋予一台机器。不过他承认创造人类水平的机器智能可能需要一生的时间,甚至更长。

麦德里同意,受神经科学启示是解决当前机器学习算法问题的有趣方法。

他说,“越来越清楚的是,大脑的工作方式与我们现有的机器深度学习模式非常不同,因此,最终可能会走上一条完全不同的路才能成功。很难说可行性有多大,以及取得成功需要多长时间。”

与此同时,对于越来越多人工智能驱动的机器人、汽车和程序,我们可能需要避免对其过于信任。因为你永远不知道人工智能是不是正在产生被误导的视觉。
 
机器当然可能出错, 但概率比人出错的概率要小很多.

那么为啥能让人开车不能让机器开车呢. 重点要解决的并不是技术问题, 而是人的观念问题 ...
 
自己开车很难吗?
 
真正要解决的是三D打印,异地输出
不需要亲自到处瞎折腾。
 
最后编辑:
国外的这些技术都是瞎扯淡。。。比不了中国。

国内的人脸识别技术杠杠地。。。很少出错,要是用在自动驾驶上,别说在stop sign上贴胶布,就是穿上衣服戴上眼镜,车也能自己停。。。


这类技术的关键是在大数据支持下的machine learning。。。国外没有这类的大数据,所以不成。

好像李开复在CNN说过,data is new oil, China is new Saudi。。。
 
这里为啥不能有?
 
国外的这些技术都是瞎扯淡。。。比不了中国。

国内的人脸识别技术杠杠地。。。很少出错,要是用在自动驾驶上,别说在stop sign上贴胶布,就是穿上衣服戴上眼镜,车也能自己停。。。


这类技术的关键是在大数据支持下的machine learning。。。国外没有这类的大数据,所以不成。

好像李开复在CNN说过,data is new oil, China is new Saudi。。。

不管哪種AI算法,目前都不能做到100% 正確,比如deep learning 不管多大的學習集, 90%+ 正確率已經很牛逼了。 但是在一些關鍵業務上,需要99。9999%+的正確。國内的技術牛逼,也只能吹人臉識別這種非關鍵業務, 好像在自動駕駛上還差的遠。
 
特斯拉“自动驾驶”只靠摄像机,在硬件上跟其他车厂的定速巡航没有特别大的区别,不知道为什么能吹到天上。
 
人工智能确实跟真正的智能很远。但自动驾驶并不需要人工智能发展到跟人一样。

自动驾驶分为五个级别,最高级L5不需要人工干预,现在商用的已经达到L4,少量人工干预,Tesla是L3,需要大量人工干预。一般家用车的lane depature提示什么的属于L2。

技术还差多远呢?现在利用摄像头跟雷达可以非常准确定位障碍物,相对难一点的是理解地上的线,因为地上的线是二维的且情况比较复杂。很多公司的做法是对地图进行3D建模,在地图里将地上的线准确标识出来。

要推广的话最难的地方在于道德的困境与交通事故后法律责任的划分。

google旗下有家公司叫sidewalk,专门研究智能城市。他们想重新规划城市,在他们的规划里,所有城市里的机动车均采用自动驾驶,道路也是专门为自动驾驶设计。这样的话,实现自动驾驶的难度大大下降。到时自动驾驶跟有轨电车是一样的,只不过那个“轨”只有车能“看”见,人看不见。

或者很多人会想这个智能城市是空中楼阁,但多伦多政府已经给google划出一块地来做这个智能城市了,可以上网查查。

当手机商在想着android收费问题时,google已经在研究怎样做一个智能城市“系统”了。。。
 
用轨,也想过。不过那就基本算是承认自驾车无法完全安全。

自驾车对路面分析的的弱项,绝对不是一个小事儿。直接导致后期的阻碍。道德困境和责任划分

仅此一点
 
那个轨是带双引号的,我想指的是非常明确的路径及行驶规则,出错率低。

至于“完全安全”,这个要求太高了,如果要对安全性进行考察,可以与人工驾驶的事故率比较,如果自动驾驶事故率明显低于人工驾驶,自动驾驶的安全性是可以接受的。

对于自动驾驶的弱项,有两个方面可以着手,一是提高车的“智能”,二是用符合自动驾驶条件的道路。对于前者,可能比较漫长,后者是比较容易实现的,例如划分专门用于自动驾驶的道路。

我印象中芬兰已经在采用无人驾驶来进行木材的运输了,主要原因是自动驾驶处理湿滑的路面比人工处理更擅长,那边下雪结冰经常出现货运事故。到2022年中国跟美国可能会有少量的道路采用自动驾驶。随着时间的推移道路的数目会不断增长。

自动驾驶不会一下子以完美的形态出现并马上取代人的位置,它会慢慢的渗透进来。你要说远嘛,离完全取代人很远,你说近嘛,过几年就会在部分道路商用。。。
 
只要有轨,不管是什么鬼,自动驾驶都不能算是成熟。
什么时候成熟?人类自身角度看。

1。人类能轻易避免的事故,机器也能。(必要条件)
2。人类不能轻易避免的事故,机器能够跟好的避免。(优势展现,非必要)

自动驾驶,很容易可以做到第二点里的很多。但是,只要在第一点上做不到,伦理就很难。

路面分析,对人来说,很容易。
对机器来说,却远未完善。

因此不成熟。慢慢渗透把。
 
最后编辑:
请使用文章顶部或底部的共享按钮来进行共享文章的链接。未经允许复制文章内容分享给他人是违反FT中文网条款和条件以及版权政策的行为。发送电子邮件至licensing@ftchinese.com以购买其他权利。有关更多信息,请访问http://www.ftchinese.com/m/corp/copyright.html。

http://www.ftchinese.com/story/001083353?full=y

自动驾驶的发展瓶颈:从万人追捧到寒冬降临
黄震:无人驾驶又一次循着技术成熟度曲线,很快地度过“过高期望的峰值”,正在快速坠入“泡沫化的谷底”。

收藏
更新于2019年6月26日 03:13
【编者按】几年过去了,自动驾驶的落地依然面临技术、环境以及法律方面的挑战,相关领域投融资随之开始降温。自动驾驶究竟前景如何?备受关注的车路协同方案有什么优势?自动驾驶在中国要以什么样的商业模式落地?FT中文网近期组织“自动驾驶在中国”专题,编辑事宜,联系闫曼 man.yan@ftchinese.com

自动驾驶的寒冬似乎降临。年初的拉斯维加斯CES到近期在上海的亚洲CES,智能网联在汽车上的应用依然是大家关注的重点,但是对自动驾驶的展示已经显示出明显降温。与此同时,曾经喊出豪言壮语的各大厂商,都在模糊自动驾驶汽车的上市时间,或者在已经确定的车型宣传上,备注“特定的、受限的适用范围”。

从喧嚣到转折

2016年开始的喧嚣似乎依然清晰,Waymo、Uber的自动驾驶路测让业内为之一振,也让许多汽车企业倍感压力。之后我们见证了Waymo和Uber向汽车企业采购几千几万台汽车用于无人驾驶车辆研发、改制和生产,也见证了通用汽车和福特汽车对自动驾驶的巨额投入,除此之外还有许多传统车企和崛起的中国汽车企业的吆喝。在那个时候,2020年似乎成为一个新时代的开始,自动驾驶的元年将近,业内带着复杂的情感,疑虑但充满期待

自动驾驶这场由Waymo单方面挑起的军备竞赛,在2018年的夏天出现了戏剧性的转折,先是Waymo的首席执行官约翰•克拉富西克(John Krafcik)坦诚,无人驾驶(L5)是有局限的,而且承认在今后的很长一段时间内,自动驾驶汽车都会需要司机的协助。随后,苹果的联合创始人史蒂夫-沃兹尼亚克(Steve Wozniak)也表示,汽车在没有方向盘的情况下自动驾驶不太可能。今年的4月,曾经押注无人驾驶的福特,新任的CEO吉姆•哈克特(Jim Hackett)就来自福特的自动驾驶业务部门,在接受采访时他也表示,完全无人驾驶汽车的到来仍需时日,现在大家对于无人车的普及都过于乐观了。

从2016年开始,自动驾驶的横空出世也曾经带给我们惊喜。但随着时间的流逝,无人驾驶车辆的车祸、对于安全员的讨论、企业之间对于“出走者”的诉讼……这渐渐让叹息多于惊喜。无人驾驶汽车又一次令人无可奈何地循着技术成熟度曲线(The Hype Cycle),很快的度过“过高期望的峰值”,正在快速坠入“泡沫化的谷底”。

单车智能的缺陷

自动驾驶的兴起与“人工智能”的蓬勃发展密不可分。在1956年香农(Claude Shannon)在达特茅斯学院和几位年轻学者讨论如何用机器模仿人类在各个方面的智能,并且提出“人工智能”一词,开启时代。自动驾驶的研究架构中,自然也追随着理论框架,把人类驾驶汽车的行为进行拆解,并且试图利用算法和机器智能提升整个行为的安全和效率。

人类驾驶汽车的过程粗略拆分,可以分为以下几个步骤,首先观察周围车辆情况、交通指示灯,然后依据自己的目的地方向,通过油门、刹车和方向盘,进行加速/减速、转弯/变道,以及刹车的操作。这个过程在自动驾驶的研究中被细分为感知层、决策层和控制层。依据推演,传感器、机器以及人工智能算法的结合,将完全超越人类驾驶的过程。

首先,人类对于周遭情况的观察,因为天气、视线盲点以及自身的身体疲劳、反应速度、情绪等原因,会出现观察的盲区,并基于这些盲区做出不安全的决策。那组合式的传感器可以以汽车为中心进行360°全覆盖扫描,并且观察区域可以拓展到百米范围。这样的观察区域是人类司机完全无法匹敌的。

其次,对于驾驶动作的决策,以AlphaGo为代表的机制智能已经证明了在速度、精确度等方面机器可以远超过人类,并且保持长期的可重复性。这一点人类因为智能的局限性以及情绪的波动性,完全无法和机器匹敌。

再次,当机器做出决策后,通过线控系统将信号传递到汽车的转向系统、制动系统和传动系统,可以确保信号的快速性以及准确性。这一点人类的手脚配合无法达到电子信息毫秒级的传输速度,并且许多时候也会“忙中出错”,错把油门当刹车。

最后,人类驾驶员在初始条件下的感知、决策和控制三个步骤是有间隔的,只有当积累一定里程,成为“老司机”之后,才能达成“眼手脚”的协同配合。而机器学习当然可以极大加快学习的过程和进度,使得协同配合的达成时间大大缩短,出手就是老司机水平。

纸面上的推演似乎一切完美无瑕,但正如前不久人工智能顶尖学者,斯坦福大学的李飞飞教授在与历史学者,《人类简史》、《未来简史》作者,尤瓦尔•赫拉利( Yuval Noah Harari)对谈中强调的,世界的存在不是两个群体,真是的社会远比这个复杂,除了算法之外,还有很多玩家和规则。在自动驾驶研究进入深水区的时候,传感器、芯片以及数据的问题,正在使得“单车智能”越来越呈现出他的不完美。

(1)多传感器融合

作为外部路况探测的传感器,其收集的信息将作为驾驶决策的输入,是驾驶决策的重要保障。可以说,没有完整的信息,就不可能支持决策系统做出正确、安全的驾驶决定。虽然众多的传感器在单一指标上可以超越人眼,但是融合的难题以及随之而来的成本困境,成为自动驾驶演进过程中面临的第一个严峻考验。

目前,许多豪华车品牌的汽车都配备有先进的驾驶员辅助系统(ADAS),利用配备的传感器,包括摄像头、雷达、超声波、激光雷达等,帮助驾驶者探测路面情况,并且给予提醒和警示,甚至在不安全情况下进行自动紧急刹车,保障安全。

但是大部分ADAS功能都是独立工作的,彼此之间不会交换信息,后视摄像头、环视系统和前方摄像头等往往起到不同的作用,承担不同的功能。当传感器的功能只是提供预警信息以及紧急刹车等等,其自身的局限性还在可控范围之内。但是当我们对传感器的要求是需要承担自动驾驶级别的感知时,每种不同的传感器的缺点使得单一要素无法承担重任,比如摄像头测距能力有限,而雷达也缺少较高的分辨率。所以需要不同传感器组合使用,基于不同传感器输入的内容,更加准确的感知周围的环境。

此时,多传感器融合(Multi-Sensor Data Fusion,MSDF)的问题就摆在了从业者面前。首先,不同传感器采集的数据类型不同,其次,不同传感器对于物体的检测会出现不同的情况(例如双重检测、部分检测等),需要进行数据的修正、融合等(例如Harmonize, Reconcile, Integrate, Synthesize等),描述出较为准确的外部路况信息。处理数据的方式也有多种方法,但无论是情况排序法、加权投票法、优先到达法等等,都各有优劣。

在此基础上,还需要考虑最终的操作是由哪个器件决定的,在哪里完成数据处理,并且如何将传感器的数据发送到中央电子控制单元(ECU)。集中式处理和分布式是两个极端情况,大部分处理都在区间之内,但如何平衡依然是难点。

此外,多传感器带来的线束问题也是“甜蜜的烦恼”。根据西门子的最新研究,目前汽车上的线束总长度已经达到1.5英里,而传感器所带来的线束长度将超过1.5英里。如何在汽车的空间范围内合理科学的布局这些线束,并且尽可能的降低热量,也是实践过程中遇到的难题。

(2)芯片的性能

多传感器的问题同时也埋下了下一个问题的隐患,那就是芯片的性能。如果需要更全面的了解外部路况信息,就需要部署更多的传感器;更多的传感器就对融合提出了更高的要求,而且在高速度的情况下,由于路况信息的变化,所带来的数据信息也更为海量。 根据英特尔的测算,一台自动驾驶的汽车,配置了GPS、摄像头、雷达和激光雷达等传感器,每天将产生约4TB待处理的传感器数据,如此巨大的数据量必须有强大的计算设备来支撑。如果我们打开现阶段进行展示或者测试的自动驾驶汽车的后备箱,都会发现有一个很大的“计算平台”。这正是自动驾驶车辆的大脑和决策机构。

如上文所说,众多传感器向“计算平台”输入数据,“计算平台”实时处理海量的数据,并且在信息整合提炼的基础上,比对位置的车辆信息,基于高精地图以及已经设定的路径规划,进行决策,决定车辆的行驶状态,并且向控制单元信号输出决策和控制信号。

但是随之而来的是一个之前被科技行业所忽略的问题,强大的计算平台同时也产生许多热量,自动驾驶汽车配备的计算平台,一定需要同时配备散热设备。所以,强大算力加上低能耗,成为了自动驾驶汽车厂商的追求。而即使是英伟达这样的顶级GPU企业,也在算力和功耗的平衡上几乎达到了天花板。所以近年来,专用计算平台更多的走进人们的视野,包括谷歌投入应用的AI专用芯片TPU、国内顶尖创业公司地平线推出的BPU,特斯拉也在投入巨资进行自动驾驶芯片的研究。

还有另外的问题,实现自动驾驶,到底需要多少算力?实现L3级别的自动驾驶,也许需要2TOPS,也有可能是需要20TOPS,真的没有人说得清楚。而且,这还只是L3级别,真的进入L4级别,算力的要求势必将呈现出技术级的上升。

(3)成本与性能的平衡

在描述完多传感器融合以及芯片性能的困局后,其背后的商业困局也自然呈现。增加许多的传感器必然将确保外部感知的准确性,芯片性能的提升也将有利于决策的提高,但这一切的背后,都将是成本的巨大提高。以笔者所经历的来看,目前在国内市场,传感器加上芯片、处理系统等,成本价格基本抵得上一辆入门款的A级轿车,其次还要加上众多研发人员和工程人员的时间投入。也有法国的研究机构统计,2018年正在测试的每辆自动驾驶汽车的平均价格是20万美元。

成本的背后更为重要的是责任(Liability)的转移。在有人驾驶时代,驾驶者当然是第一责任人,自己做出车辆操控决策,并对可能的后果负责。但是当汽车厂商或者出行厂商推出自动驾驶车辆后,由于是厂商提供的车辆“自动”进行操控的决策,因此责任将转移到厂商这边。为了降低其可能承担的风险以及后续的损失,厂商自然需要增加足够的冗余,以保证产品达到车规级的安全。而高昂的成本是消费者不愿意买单的,特别是在早期,当自动驾驶的功能非常有限,而且实现还需要在特定条件下才能触发,更加削弱了消费者买单的意愿。

(4)数据、场景的本地性和通用性

正如老司机需要经历时间和众多路况才能练成“眼手脚”的协调配合,自动驾驶汽车的决策能力提升也需要建立在大量有效的路测数据基础上的决策算法的提升。按照业内普遍的观点,自动驾驶企业需要100亿英里的架势数据来优化其自动驾驶系统。但这是人类不可能完成的任务,即便是取得指数级领先优势的Waymo,其自动驾驶汽车的路测里程累计也只是2000万公里的量级(2000万公里几乎相当于绕了地球整整500圈)。业内其他的自动驾驶企业也利用仿真测试作为真实道路路测的补充,加快研发的进展。

但还是,即使如伟大的Waymo,目前的无人车队也更多在车流量较少的凤凰城进行测试。(而且这一切还是基于Waymo应用的最佳的传感器加计算平台的组合,如果进入交通情况更为复杂的城市,现有的硬件和算法是否可以进行支撑,也是未知。)数据的多样化以及丰富性同样也是不足的,所以有业内人士指出,由于数据本地性问题,Waymo的商业化路径是否可以拓展,依然存在疑问。

自动驾驶初创公司NuTonomy的首席运营官道格•帕克(Doug Parker)的表述也说明了数据可拓展性面临的难题,他说,目前开发的大多数自动驾驶汽车技术都是基于特定的地理位置,因此很难推广到新城市,因为要在系统中计入新的规则和新的驾驶行为。无论美国和中国的自动驾驶企业都面临现实的挑战,如果更换一个城市进行测试,有很大部分需要重新开始。

综上所述,单车智能的方案曾经带给业内诸多惊喜,但伴随研发和测试进入深水区,多传感器融合的问题、芯片算力和能耗的问题,以及数据本地性无法通用化的问题慢慢浮出水面,而且已经遇到了发展的瓶颈,只能在诸多限制条件下做艰难的平衡。同时,作为商业化的产品,必须还要考虑性能和价格之间的平衡,而高成本又成为目前“压垮”自动驾驶商业化的稻草。

在一扇门悄悄关闭的时候,另一扇窗正在慢慢开启。单车智能渐渐式微,而车路协同的概念越来越得到业内的关注。
 
车规协同,意味着大规模的基础建设改造。好事儿。刺激经济。

同时说明
AI
的现在还是场梦!

那些指着AI发福利养懒人的言论,可以先歇歇了。至少是过于乐观了。
 
你说得有道理。不过还是觉得你略为乐观了。

5G技术里成熟稳定安全还早。就算5G成熟可靠了,还应用在单体汽车上。实现了汽车实施通讯。AI依然会有问题,你信吗?
 
后退
顶部