特斯拉AIDAY深层解读,马斯克坚持纯视觉绝不动摇

打造出像大脑一样如前所述听觉的脊髓计算机网络,这是今年TeslaAI Day的核心主轴,其本质上是特斯拉秉持纯听觉走线的沿袭和说明。电动汽车人参照结合AI Day的内容,从硬体和应用软件两个微观展开剖析。

从2014年的HW1.0开始,Tesla自动驾驶不用激光声纳已是怀思,晶片设计从自制逐步迈向自研,车越卖越多,数学模型越来越成形,翼板12个探头+1个前向声纳这套交互硬体整体架构一直没有变化。

2021年5月发布的Tesla Vision,中止了ALMA声纳,Tesla最终迈向了纯听觉。

其使用的德国内地第三代中距前向声纳,作为这款进阶产品,不论从FoV还是角解析度,操控性上都算不上最差,而且更缺少度信息。

这就带来了一个难题,换句话说原有ALMA声纳的众所周知,对大批动态目标,包括较低的街灯、高架桥顶等造成散射,特别是合金球体,散射讯号会被进一步弱化,就会造成大批的不实杂点。

因此须要在演算法上须要展开过滤器,但过滤器多了就会检体翻车(可TNUMBERA51到蔚来电动汽车近期的交通事故),而过滤器少了就会有幻影煞车(Tesla车友埋怨)。

更重要的是,探头每秒钟数据传输的BCC量是ALMA声纳的100倍,当二者数据展开结合时,概率密度不高,会造成弹跳和变形的难题。

探头就有如人的听觉,而ALMA声纳更像人的触觉,在对后方球体展开进行分类辨识时,二者发生争执,听觉才是主导力量。

原有Tesla翼板FSD晶片算力主要依靠两块SoC晶片,算力为144TOPS并不高,但是,如前所述帧检测的探头须要依赖高算力,其核心诉求是高带宽和低延迟。

高带宽意味着数据交换的通道多,低延迟表示数据交换速度快,而Tesla云端的中央计算平台Dojo就是为此而生。

Dojo由5760个英伟达A100GPU组成,其总算力达到1.8EFLOPS,带宽达到了1.6TB/s,存储空间为12PB,足以与大脑相媲美。

其核心是能将多个GPU通过台积电首次量产的InFO-SoW扇上晶圆直出封装技术,封装在一个基板上,成为一个D1晶片组。

由于晶片间的距离极短,因此D1晶片组就是一个低延迟的数据交换结构,以D1晶片组为单元,构建了整个Dojo的硬体体系,用于支撑更大更复杂数学模型的AI训练,实现对数据的高效处理。

在应用软件微观,Tesla整个数学模型架构如下图所示:

最底层的是数据、GPU集群以及Dojo计算集群,展开数据采集、标注和训练,生成模型;上一层是如前所述PyTorch开源架构(Facebook)的深度数学模型,主要负责对模型展开分布式训练;再用损失函数对模型展开评估;在评估层之上,是云端推理和翼板FSD晶片推理,在这一层意味着模型已经部署到了翼板;在翼板通过影子模式将模型与人类驾驶行为展开比对,检测是否存在异常。

在这个架构底层,须要数以百万计的,经过清晰标注的(速度、加速度、深度),且包含大批边缘案列的数据展开喂养。

在数据标注微观,Tesla一直致力于自动打标签,通过Dojo在传统探头2D图像基础上,实现立体空间+时间戳的四维标注。

此外,为了应对长尾难题(Conner Case),Tesla开发了221个Trigger,主要目的是为了获得边缘化的场景。

截止到今年6月底,Tesla一共积累了7轮影子模式迭代流程,包括了100万个由探头拍摄的36 帧/s、10秒时长的度差异化场景,共计60亿个包含精确的深度和加速度的球体标注,总计1.5PB的数据量。

下图为一辆Tesla眼中的数据世界Mind of Car:

特斯拉秉持纯听觉走线的底层逻辑,其本质上是Tesla的技术壁垒。

在硬体微观,翼板交互层开始做减法,云端超计算Dojo,对数据自动标注;而在应用软件微观,实现从数据、模型、训练、推理、迭代的全栈AI数学模型架构。

回到开头的第一句话,打造出像大脑一样如前所述听觉的脊髓计算机网络,既是今年TeslaAI Day的核心主轴,又体现了特斯拉第一性原理的处世哲学。

本文为电动汽车人参照第351篇原创文章,如果您觉得文章不错,推荐和关注是对我最大的支持。

发布于 2022-10-04 19:10:30
收藏
分享
海报
168
上一篇:热身-中国女篮70-63澳大利亚还将迎战加拿大和马里 下一篇:特斯拉CEO马斯克:对人工智能进行监管是非常合理的
目录