研究发现,你可以通过在地面上放置小贴纸来欺骗特斯拉的自动驾驶仪

腾讯敏锐安全实验室(Keen Security Lab)的研究人员用红色和白色的小贴纸,迫使一辆自动驾驶的特斯拉(Tesla)改变车道。

屏幕截图通过Keen安全实验室

以下是使用特斯拉自动驾驶仪时需要注意的定期提醒。据腾讯敏锐安全实验室(Tencent Keen Security Lab)的研究人员称,他们发现,迫使一辆运行自动驾驶系统的特斯拉Model S变道非常容易,令人不安Digital Trends.我们已经看到Autopilot困惑但现在研究人员表示,只要在道路上添加三种不同颜色的贴纸,就足以诱使自动驾驶仪改变车道,甚至进入迎风而来的车辆。

有一个简洁的视频,概述了腾讯Keen安全实验室对特斯拉自动驾驶仪的一些欺骗方式的研究。他们的大部分研究都是关于Autopilot使用神经网络“看到”道路上的情况IEEE频谱.因为这些网络看到的东西与人类不同,研究人员能够欺骗特斯拉Model S的系统,让它以为下雨了,并打开了挡风玻璃刮水器因此,通过算法生成图像。

更令人担忧的是该实验室对Autopilot的车道识别系统的研究,他们只需要在十字路口中间添加三张贴纸,就可以欺骗Autopilot,让它相信有车道,从而将汽车转向迎面而来的车辆。

虽然在腾讯Keen安全实验室的视频中显示的贴纸是白色的,但该团队也能够使用小的红色贴纸达到类似的效果,因为人类不会那么明显。Digital Trends解释道:

在一个例子中,在地面上放置小的红色贴纸,让车辆相信它需要改变车道。袭击可能会迫使车辆驶入迎面而来的车辆。攻击是在白天进行的,不需要任何降雪或降雨等干扰,这些干扰可能会让自动驾驶系统更难处理道路。

值得称赞的是,为了让Autopilot无视车道标记,车道标记必须被模糊到何种程度,这是相当重要的,IEEE频谱笔记。然而,事实是,自动驾驶仪经过训练,可以识别这些模糊或断裂的线作为车道标志,这使得它更容易在另一个方向欺骗,用虚假的车道标志欺骗它,进入迎面的交通车道。

该团队还在其他方面对特斯拉做出了妥协,通过一款应用程序,绕过了几层安全措施,控制了Model S的驾驶,这让他们可以使用游戏控制器或智能手机来驾驶汽车。Digital Trends他解释说,对于最近从倒车转为驾驶的汽车来说,这款应用的功能有些有限,但它仍然能够完全覆盖自动驾驶仪和在停车场或使用巡航控制的汽车的方向盘控制。

然而,这个技巧比用不清楚的车道标识来欺骗汽车要花费更多的人力,而且还需要突破几层旨在防止此类劫持发生的安全措施。任何最近开车经过建筑区域的人都可以证明,路上奇怪的标记是一个相对常见的景象,这是一个很好的理由,当你使用自动驾驶时,总是要注意。

你可以阅读腾讯基恩安全实验室的完整论文,其中详细介绍了他们对特斯拉自动驾驶系统的研究在这里.研究团队向特斯拉展示了他们的研究成果,希望特斯拉能实现一种汽车识别反向车道的方法。

但与此同时,当Autopilot出现错误时,你能否介入仍取决于你自己,就连特斯拉也在一份声明中指出腾讯Keen安全实验室

在这个演示中,研究人员调整了汽车周围的物理环境(例如在道路上放置胶带或改变车道线),以使汽车在使用自动驾驶时表现得不同。这不是一个现实世界的问题,因为司机可以很容易地在任何时候通过使用方向盘或刹车来覆盖自动驾驶仪,并且应该随时准备这么做。

同样值得注意的是IEEE频谱腾讯公司(Keen Security Lab的赞助商)想要开发自己的吗自动驾驶系统这可能被视为Autopilot的竞争对手,因此他们有额外的动机去发现其他公司已经做出的缺陷。不管怎样,这都是一个很好的提醒,像Autopilot这样的半自动驾驶系统还不是真正的自动驾驶。