腾讯科恩实验室再次攻击特斯拉,Autopilot的几个软件漏洞被发现了

来源:观察者网

2019-04-02 17:57

【导读】 科恩实验室以Model S为对象,针对其搭载的Autopilot系统进行安全研究,成功取得了以下三个研究成果。

文 | 观察者网 徐喆

上周五(3月29日),已多次成功“远程入侵”特斯拉Model S的腾讯“科恩实验室”在其官方博客上发文,称其利用此前在特斯拉Model S(版本2018.6.1)发现的已知漏洞可获取Autopilot控制权,并通过实验证明,即使Autopilot系统没有被车主主动开启,也可利用Autopilot功能实现远程操控方向盘,甚至可以通过攻击其车道检测系统,让行驶中的车辆迷惑从而驶进反向车道。

事实上,早在2016年9月,科恩实验室就曾发布视频,展示了他们入侵特斯拉Model S的全过程。内容包括在停车的过程中控制汽车遮阳板,信号灯,座椅,显示屏,门锁,挡风玻璃雨刷器,反光镜,汽车后备箱,甚至在行车过程中控制刹车。

随后,在2018年Black Hat USA大会上,科恩实验室发表相关议题,面向全球首次公布了针对特斯拉Autopilot系统的远程无接触攻击(相关攻击链已经被特斯拉修复)。

在后续的高级辅助驾驶安全研究中,科恩实验室重点关注在视觉AI模型对抗研究、Autopilot系统架构与网络安全等方面。直到现在,科恩实验室以Model S为对象,针对其搭载的Autopilot系统进行安全研究,成功取得了以下三个研究成果。

一、雨刷的视觉识别缺陷特斯拉Autopilot系统借助图像识别技术,通过识别外部天气状况实现自动雨刷功能。

特斯拉自动雨刷功能的视觉神经网络

科恩实验室通过研究发现,利用AI对抗样本生成技术生成特定图像并进行干扰时,该系统输出了“错误”的识别结果,导致车辆雨刷启动。

二、车道的视觉识别缺陷特斯拉Autopilot系统通过识别道路交通标线,实现对车道的识别和辅助控制。

科恩实验室通过研究发现,在路面部署干扰信息后,可导致车辆经过时对车道线做出错误判断,致使车辆驶入反向车道。

三、遥控器操控车辆行驶利用已知漏洞在特斯拉Model S(版本2018.6.1)获取Autopilot控制权之后,科恩实验室通过实验证明,即使Autopilot系统没有被车主主动开启,也可以利用Autopilot功能实现通过游戏手柄对车辆行驶方向进行操控。


据了解,腾讯科恩实验室的研究人员使用了一种攻击链,并且已经透漏给了特斯拉,特斯拉表示现在已经通过最新补丁,消除了该攻击链。

针对腾讯团队发现的几点漏洞,特斯拉在晚些时候对本次研究成果做出了回应,均称“研究情况与现实不符”。

特斯拉认为,通过在汽车挡风玻璃前的电视图像来证明这项研究的做法并非普通司机会面临的现实情况,也并不会因此存在安全问题。此外,特斯拉方面表示,正如“用户手册”中所描述的,“挡风玻璃刮水器的自动设置目前处于测试阶段”,车主可随时选择使用手动挡风玻璃刮水器设置。

关于成果二,特斯拉表示研究人员在测试过程中调整了车辆周围的物理环境,比如在路上放置了“贴纸”,从而使得启动自动驾驶的汽车做出不同的判断。“考虑到驾驶员可随时使用方向盘或制动器轻松退出自动驾驶模式,因此这不现实。“

至于成果三,同样的,特斯拉仍然认为这与现实不符,“这么多年里,我们从未见过任何一位客户受到本报告中提及的研究成果的影响。“

本文系观察者网独家稿件,未经授权,不得转载。

欢迎关注观察者网汽车频道微信公众号“300弄车评”,ID:Lane300


责任编辑:徐喆
视频新闻
观察者APP,更好阅读体验

美方对俄隐瞒了部分信息?克宫回应

这条中马“一带一路”重点铁路项目 “或延伸至泰国”

国防部表态:中方不会在南海问题上任菲胡来

关于ASML出口管制,荷兰首相在华表态

警惕!“隐秘”的调查暗藏国家安全风险