《科技行业特斯拉研究报告二:新科技综合体崛起-201204(22页).pdf》由会员分享,可在线阅读,更多相关《科技行业特斯拉研究报告二:新科技综合体崛起-201204(22页).pdf(22页珍藏版)》请在三个皮匠报告上搜索。
1、第一步,摄像头采集图像信息。与人类驾驶员学习驾驶一样,辅助驾驶系统也需要先认识路牌、道路规则、行人等后再进行判断。这个时候,汽车的感知系统负责“认识”,探测车辆内外环境,包括驾驶员操作行为、车辆定位、环境可见度、路障等。感知系统由大量传感器组成,包括摄像头、激光雷达、毫米波雷达、地图定位等。目前自动驾驶环境感知的技术路线主要有两种,一种是使用视觉主导的多传感器融合方案,另一种则以激光雷达为主导,特斯拉为第一种方案。2014 年特斯拉推出了 Autopilot1.0 版本,当时的主要传感器是“前置摄像头”,配备 1 个前置摄像头、1 个前向毫米波雷达、车身一周 12 个超声波雷达。视觉主导方案技
2、术比较成熟,成本较低,但摄像头成像受环境光照的影响较大。2016 年 5 月美国佛罗里达,一辆 Model S 在 Autopilot 开启状态下与一辆卡车相撞、车主死亡,主要因为在天气影响下摄像头没有识别出和环境颜色相似的卡车(均为亮白色),导致汽车在速度过快的情况下撞上卡车,因此事后官方调查说明的是“在天空明亮光线的照射之下,自动驾驶功能和驾驶员都未能发现挂车的白色面,因此刹车功能就没能启动。”事故后,特斯拉将主要传感器换成毫米波雷达,Autopilot 2.0 的配置为 1 个毫米波雷达、8 个摄像头(3 个前置、2 个侧边、3 个后置)、12 个超声波雷达、1个后置倒车雷达。目前,除了
3、 Model 3 增添了一个车内摄像头以外,特斯拉最新 Autopilot 3.0 版本的配置基本保持不变。第二步,利用“总-分”结构的神经网络进行深度学习来提取图像特征。在车辆驾驶环境中,道路情况和驾驶情况相当复杂,摄像头采集的信息和图像往往非常庞大,辅助驾驶系统需要同时处理几十乃至上百的运算任务,为了提高效率并且降低任务处理难度,特斯拉采用 HydraNets 架构的深度学习神经网络,概括来说,是一个“总-分”结构的神经网络。“总”代表首先将运算任务输入到一个大型的共享骨干网络上,总的骨干网络共有 8 个小网络,运算任务也将被分成 8 份到各个小网络中,以降低整体运算难度、提升运算效率。“
4、分”是每个小网络单独训练和学习那一小部分的图像和信息、提取有效特征(例如物体外部特征、距离等信息)。第三步,采用 PyTorch 进行分布式训练。随着车辆增多、数据提取量提升,简单收集所有汽车的所有数据是远远不够的,并且任何因素都会导致上传数据,例如司机急刹车、道路上遇到某样物体等。过多的数据添加会占用数据集容量。此外,单纯的通过真实数据进行逻辑判断也会随着数据量提升而产生运算压力,因此,特斯拉认为“需要缩小数据收集范围”,除了真实数据以外还需要具备预测能力。特斯拉利用 PyTorch 进行分布式训练,不断训练计算机自主对路径、外界物体的判断和规划能力,毕竟与其人工对每一种驾驶行为进行编码,并
5、且是否对每一种驾驶行为都进行编码还有待商榷,还不如训练算法,让算法自动的从数据中学习并能判断这些行为,模仿学习的使用可以很大程度减少工程师投入到路径规划上的工作量。备注:PyTorch 是一个开源的 Python 机器学习库,用于自然语言处理等应用程序,目前被广泛用于深度学习领域。第四和第五步,模拟结果和实际结果进行评估、对比,对错误部分进行修正。特斯拉认为需要缩小数据收集范围,即并非所有的数据都会被采集,特斯拉通过训练神经网络来模仿真实驾驶行为,车辆行驶的时候,后台神经网络就开始运行,只有当模拟结果和驾驶员真实操作相违背的时候,相关数据才会被上传,因为这部分的数据是算法预测错误的,也是最有价值的部分。修正神经网络学习结果并为数据打上标签,为下次相似操作提供更好的依据,这个模式也被称为“影子模式”。