您的位置:主页 > 公司动态 > 公司新闻 > 公司新闻

特斯拉的AI野心_外盘期货,国际黄金

2017年6月,Google揭晓了一篇名为Attention Is All You Need(注重力是你需要的所有)的论文。

这篇论文由8名发量茂密的AI科学家团结撰写,他们在论文里缔造性地提出了一种“注重力机制”,并基于此开发一个名叫Transformer(变形金刚)的深度学习模子——一位作者以为叫“注重力模子”过于无聊,就用玩梗的心态起了这个名字。

8名作者多数脱离Google,选择创业

从Transformer模子被提出的那一刻起,人工智能的历史历程被蓦地加速了。研究者发现Transformer在自然语言处置(NLP)领域的效率奇高,相比传统RNN(循环神经网络)优势显著,于是很快便成为NLP研究者们推许的*模子。

Google的重大希望,却让OpenAI的工程师们通宵难眠。OpenAI昔时确立的初衷,就是打破Google在人工智能领域的垄断,而面临这只横空出世的“变形金刚”,他们做了一个重大决议:爽性就用Transformer这件敌人的武器,来跟Google正面硬刚。

2018年6月,在“变形金刚”降生一周年之际,OpenAI推出了基于Transformer模子的GPT-1,其中GPT内里的“T”,就是Transformer的首字母。今后,OpenAI沿着这条蹊径把GPT-1延续迭代到本周刚公布的GPT-4,并让ChatGPT火遍了全球。

Transformer家族谱系,量子学派[7]

标杆旌旗一出,全球科技巨头就蜂拥而至,纷纷推出了自家基于Transformer的大模子,如Google的BERT,微软的Turing-NLG,英伟达的Megatron、海内华为的鹏程盘古、阿里的M6、百度的文心一言等大模子都是基于Transformer来构建。

更进一步,研究者发现Transformer不仅能够处置语言,处置图像能力也很猛,远胜于传统CNN(卷积神经网络)模子。2020年,Google科学家提出了Vision Transformer ( ViT )观点[1],给盘算机视觉领域的人工智能也装上了火箭助推器。

到本文最先撰写时,Attention Is All You Need这篇论文已经被引用了68,147次,成为人工智能历史上被引数目第三高的论文。应该说,Transformer的泛起扣动了此轮人工智能热潮的板机,你在同伙圈刷到的所有AI热门,险些都跟这个“变形金刚”有关。

站在Transformer模子上,OpenAI成为全球最耀眼的明星,而发现人Google也让天下在AlphaGo之后再次敬畏起了它的实力,两家公司一度打起了大模子的军备竞赛,而全球其他科技巨头也不想只做围观者,要么已经躬身入局,要么正在摩拳擦掌。

着实,受Transformer启发,把它运用到炉火纯青并点燃另一场AI革命的公司尚有一家,就是特斯拉。

01

借船:马斯克的“人工智能恐惧症”

在梳理特斯拉的AI轨迹之前,让我们先来领会一下伊隆·马斯克的“人工智能恐惧症”

这个星球上*能让马斯克做噩梦的,不是贝索斯的秃顶,也不是薛定谔的刹车片,而是人工智能。2014年他就在推特上写道:“我们要对人工智能格外小心,它可能比核武器更危险。”在之后的一次访谈中,他又危言耸听道:“当人工智能成为不死的专制者时,天下将永远无法挣脱(它的控制)。”

可能是以为原子弹的类比还不够震撼,马斯克在2017年把人工智能的威胁进一步比做北朝鲜[2]——他在twitter示意人工智能“Vastly more risk than North Korea”。随后又强烈宣称“人类应该像羁系食物、药物、飞机和汽车一样来羁系人工智能。”

为何云云畏惧?马斯克2018年在“西南偏南”大会上对话《西部天下》编剧乔纳森·诺兰时注释道[3]:我通常不提倡羁系,而且倾向于削减这种枷锁,然则“人工智能把我吓坏了,它的能力比险些任何人知道的都要强,而且进化速率是指数级的。”

不外,马斯克一方面维持着“最恐人工智能的碳基生物”这一人设,一方面却在大干快上地投资AI。

2013年,马斯克小我私人投资了DeepMind;2015年他介入了OpenAI的*提媾和Vicarious的B轮融资;2016年,马斯克又开办了脑机接口公司NeuraLink;而特斯拉也通过收购把DeepScale、GrokStyle、Perceptive Automata等人工智能公司纳入囊中。

特斯拉更是很早就最先结构人工智能。2013年特斯拉依附Model S的热售市值突破100亿美元,马上最先计划进军自动驾驶。在5月份马斯克跟Google首创人的一次对谈中这样讲:“飞机的自动驾驶仪(Autopilot)是一件很棒的器械,汽车也应该拥有它。”

在那时,“自动驾驶”对传统汽车厂商来说更像是一个科幻观点。1970年月全球汽车巨头们界说了DAS(驾驶员辅助系统),然后沿着这条蹊径郑重推进,“自动驾驶”一方面大厂们不想干(会带来无限的执法噩梦),另一方面也简直是干不了。

2014年,国际汽车工程师学会(SAE)把广义上的“自动驾驶”分成了6类。可以看到,传统车企在已往几十年基本上都在L0~L1级之间原地踏步,若是要到达L2级甚至更高,汽车就必须借助人工智能,而想要做到这一点,就要把汽车变得更像一台盘算机,而非一个单纯的机械电子部件组合体。

自动驾驶6个级别,未来智库[4]

而特斯拉在Model S上,就已经实现的电子电气架构刷新,让汽车更像一台“四个轮子的盘算机”。这种理念厥后被前华为苏菁用明晰话总结了出来:传统车厂以为车的基座是车,然后把盘算机嵌进去;我们则以为汽车的基座是盘算机,然后把车挂上去。

Modle S改电子电气架构初衷是为了降成本,好比削减又贵又沉的汽车线束,但新架构至少能让汽车的各部门听从“大脑”的统一指挥(详细怎么做的详见我们之前的文章[12][13]),即是为人工智能的落地搭了一套毛胚房(但还算不上精装修)。

毛胚房准备了,但要让AI真正“拎包入住”——实现L2级以上的“自动驾驶”,还需要什么器械?

我们通常熟悉的“自动驾驶”,就是汽车行使种种传感器,网络周围环境数据,然后汽车的大脑(焦点是芯片)凭证算法来剖析这些数据,进而控制车辆行为。好比摄像头看到前方突然窜出一条狗,大脑剖析后发出紧要刹车的指令,让汽车停下来。

在这个历程中,识别出前方窜出来的到底是一条德国牧羊犬,照样一只玄色垃圾袋,就需要一套“算法”了。这些算法,需要提前载入到汽车的“大脑”里,输入汽车种种传感器采集到的数据,然后作出实时的判断,进而控制汽车的行为。

汽车要在行驶历程中采集数据、加载算法、迅速作出判断,自己的盘算性能也不能掉链子,尤其是高速行进时,决议晚1ms都可能会酿成大祸,若是“卡机”更是灾难。因此,汽车上搭载的芯片性能也不能乱来,要有足够的算力。

而那些事先载入汽车大脑的算法从何而来?在早期,碳基程序员们用if-else语句来撰写算法,但在机械学习问世之后,科技公司们最先构建盘算平台,汇聚了从终端提取和模拟天生的海量数据,在更高算力的芯片驱动下,不停训练,形成算法。

图片泉源:aionlinecourse

到这里,自动驾驶“四要素”就很明确了:1. 感知数据 2. 焦点算法 3. 终端芯片 4. 盘算平台。

但2013年的特斯拉照样一个名副着实的“小厂”,在四座大山眼前基本上毫无积累,尤其是芯片和算法需要投入大量研发经费。马斯克此时的计谋也很务实:造不如买。那时能进入特斯拉视野的供应商有且只有一家——以色列公司Mobileye。

Mobileye的名字包罗“移动”和“眼睛”两个词,这家公司由号称“中东哈佛”的以色列希伯来大学教授Amnon Shashua于确立。自1999年确立之后,专注于开发自动/辅助驾驶手艺,2014年在纽交所上市,2017年被英特尔以153亿美金的天价并购。

在上文提到的自动驾驶“四要素”中,Mobileye最善于什么?焦点算法。

跟近些年“算力论英雄”的情形差异,初期的自动/辅助驾驶对算力的要求并不高。与现在L4级自动驾驶动辄400 TOPS、L5级更是到达4000 TOPS的算力要求差异,L1级的自动驾驶所需算力甚至不到1 TOPS,L2级也仅仅是在2 TOPS四周倘佯。

L1级自动驾驶跟“自动驾驶”相隔十万八千里,基本上就是“驾驶员辅助”,好比自顺应巡航、自动刹车、车道保持等功效,实现起来简直不用很强的盘算能力,只需要廉价的摄像头雷达配合先进的图像识别算法,而这也正是Mobileye的强项。

在建立的前10年,Mobileye仅仅靠纯软件方案的视觉算法就实现了盈亏平衡。一直到2008年,Mobileye才推出了*代自动驾驶芯片EyeQ1,由台积电代工,接纳ARM内核和180nm工艺,而同期初代iPhone搭载的三星S5L8900芯片已经用上了90nm工艺。

到了2014年,Eye系列已经迭代至Q3,停止2013年年底,产物累计销量突破100万台。虽然Q3算力仍然是可怜的0.25 TOPS,但其捆绑销售的算法够香,对于急于上车智能驾驶、又苦于没有软件和算法开发能力的厂商来说,属于瞌睡遇到枕头。

马斯克不喜欢Mobileye,尤其是后者将算法直接封装进芯片里,交付客户的是一个“黑盒”,内里的算法无法更改。但不喜欢也没设施,Mobileye市场份额靠近垄断,你爱买不买,宝马飞跃福特都得低头,特斯拉也只好乖乖地接受这种“店大欺客”。

2014年10月,特斯拉公布了*个自动驾驶方案——Autopilot1.0版本,其中的硬件模块称之为Hardware 1.0(简称HW1.0)。这个方案把Mobileye EyeQ3作为硬件模块的大脑,另外还配备一个前置摄像头、12个超声波雷达和1个毫米波雷达。

自此,2014年10月之后生产的新车都市默认搭载HW1.0硬件,但用户此时还不能直接用——特斯拉接纳的是“硬件先行,软件更新”的方式,先装硬件,再OTA升级,因此一直到2015年10月特斯拉v7.0版更新后,Autopilot1.0才正式被“点亮”。

在Mobileye“上车”的那一刻,马斯克就漆黑准备自研自动驾驶的算法、芯片和盘算平台。

2015年马斯克试图笼络硅谷著名黑客George Hotz来特斯拉搞无人驾驶,准许若是乐成替换Mobileye,特斯拉会一次性给他“数百万美元奖金”,但被对方拒绝,随后Bloomberg的一篇报道将两人的邮件披露出来[5],立马引来了Mobileye的诘责。

被Mobileye“卡脖子”的特斯拉只幸亏官方网站上发了一份声明,示意Mobileye提供的芯片和算法仍然是“全天下*”,特斯拉还会继续使用。然后马斯克亲自在twitter上转发了这份声明,才作废了Mobileye的怒火,制止了特斯拉被“断供”。

事宜平息后,马斯克加速推进“自主可控”设计。2016年1月,传奇的AMD首席架构师Jim Keller被挖到了特斯拉,他的耐久战友Peter Bannon也在1个月之厥后到马斯克的阵营——特斯拉跟Mobileye“脱钩”已经只是一个时间问题。

分手的刻意云云强烈,马斯克就差一个堂而皇之的理由和一个暂时替换Mobileye的备胎。很快,它们都来了。

02

过渡:一段跟黄仁勋的塑料友谊

2016年5月,一辆开启自动驾驶模式的Model S在佛罗里达州撞车,40岁的司机Joshua Brown就地殒命。

这辆Model S撞上的是一辆货车的白色车厢。当后者横穿马路时,特斯拉的Autopilot系统虽然通过毫米波雷达检测到了车厢,但误把蓝天映衬下的白色车厢当成一块路牌,AEB(自动紧要制动系统)于是没有做任何的反映,车就径直撞上去了。

这是人类历史上已知的*起自动驾驶事故,自然引起全球舆论关注,美国国家运输平安委员会(NTSB)公布了足足500页的讲述。考察职员发现司机Joshua Brown在驾驶历程中也不忠实,90%的时间双手脱离偏向盘,并忽视了七次系统忠言。

司机虽有错,但企业也得背锅。特斯拉发现若是要跟横穿马路的车辆相撞,Mobileye的EyeQ3芯片无法提供足够的算力,要等到两年后公布的EyeQ4才行,而Mobileye在事故的声明里又暗搓搓地甩锅特斯拉,这让马斯克加倍坚定了踢开Mobileye的刻意。

5个月后,特斯拉公布了Autopilot 2.0和硬件模块HW 2.0,彻底跟Mobileye分道扬镳。接替它的是黄仁勋的英伟达。

这里插一下:特斯拉自动驾驶方案的名字眼花缭乱,最最先就叫做Autopilot,厥后引入一个高级选配方案FSD(Full Self-Driving),两者就是统一套系统的两档产物,用户多花钱,就可以激活更多功效,背后的硬件叫做Hardware(1.0→4.0)。

英伟达在自动驾驶方面着实也是一枚新兵蛋子。在2015年1月,黄仁勋向天下公布*代了NVIDIA Drive平台,这个平台由两部门组成:数字座舱(CX)和自动驾驶(PX),两者都使用英伟达Tegra X1——任天堂switch的同款芯片。

Tegra是英伟达移动芯片家族的名字,昔时坑了不少厂商,好比HTC和小米,一直被高通摁着摩擦。厥后老黄爽性放飞自我,把在显卡领域练就的“砌算力”大法施展到*,功耗发烧猛增,基本退脱手机市场,但在自动驾驶领域却重获新生。

以Tegra X1为例,其接纳尺度的CPU GPU架构,CPU部门接纳4颗Arm A57内核和4颗A53 内核,焦点数总计8颗;而GPU部门则接纳Maxwell架构,焦点数高达256颗。这种“暴力堆砌”下,单颗Tegra X1的算力居然攀到了1 TFlops。

Tegra X1 图片泉源:英伟达

1 TFlops是什么观点呢?TFlops指的是“每秒万亿次浮点运算能力”,1996年英特尔帮美国能源部Sandia国家实验室制造了一台名叫“ASCI Red”的超级盘算机,占地1600平方英尺耗电500千瓦,用来模拟核弹头,它的算力就是1.06 TFlops。

英伟达的“算力大法”,正好是自动驾驶由L1向L2、L3演进时急需的器械。

好比L1级的“单车道定速巡航”功效下,车载芯片只需要处置有限的数据量,但一旦进化到L2级其余“自动变道”,车辆不仅要识别车道和周围车辆,还要实时算出*变道决议,算力需求提升了一个数目级。相比单纯地用CPU来提供算力,英伟达“CPU GPU”模式能更好地匹配自动驾驶的需求。

为什么?简朴说,CPU(中央处置器)和GPU(图形处置器)均由控制单元(Control)、运算单元(ALU)、存储单元(DRAM)、缓存(Cache)等几个部门组成,两者区别主要在于各个单元的数目配比,尤其是运算单元的数目配比。

运算单元是芯片数据盘算的中央,由算术逻辑部件(ALU)组成,ALU即人人口中的“核”,所谓8核CPU指的即是有8个盘算单元。为图像处置和矩阵盘算而生的GPU,与CPU的*差异在于可以暴力叠加成千上万个ALU举行并行运算。

简朴类比,CPU像一位数学系教授,能力周全,GPU则像他手下的一年级本科生,偏科严重,只会算数。教授平时善于统筹全局,发号施令,他自己虽然也会算数,甚至抵得上两三个本科生,但显然比不外100个本科生叠加在一起的“算力”。

当GPU遇到人工智能后,最先大放异彩。2006年,英伟达推出基于GPU的CUDA开发平台,开发者可以通过这一平台,使用C语言编写程序以解决庞大的盘算问题,换言之,原本只用做3D渲染的GPU变得加倍通用,可执行的义务加倍多样。

2009年,斯坦福大学的Raina、Madhavan及吴恩达在一篇论文中叙述了GPU在深度学习方面相对CPU的大幅优势[6],将AI训练时间从几周缩短至几小时。这篇论文为人工智能的硬件实现指明晰偏向。GPU大大加速了AI从论文走向现实的历程。

因此,特斯拉从Mobileye切换到英伟达不仅是换供应商这么简朴,而是把人工智能硬件实现的利器——GPU装上了车,即是把“毛胚房”换成了“精装房”,实现了AI算法的拎包入住,同时也把“电动车”和“人工智能”两大时代主题毗邻在了一起。

特斯拉在2016年10月公布的HW 2.0硬件平台,包罗8个摄像头、1个毫米波雷达、12个超声波雷达,以及英伟达DRIVE PX2定制主板,主板上面搭载了Tegra X2 CPU和升级为Pascal架构的GPU,算力是10 TOPS,也许是Mobileye EyeQ3的整整40倍。

“新女友”看起来貌美如花,但特斯拉为了这次分手着实支出了不小的价值。

HW 2.0的硬件性能虽然优越,但软件上却是短板,特斯拉内部团队和英伟达在算法上都还达不到Mobileye的水准。好比一直道HW 2.0公布的3个月后,特斯拉才把自顺应巡航控制、前方碰撞预警和偏向盘自动转向等基本功效给慌忙地做出来。

因此,虽然特斯拉自2016年10月后出厂的车都标配了HW 2.0,但一直到2017年上半年才把Autopilot 1.0的功效都实现出来。因此有用户讥讽道:“搭载了更强劲硬件的新车车主们等了足足半年,总算可以享受跟老车主一样的辅助驾驶功效了。”

但顶着客户流失的风险,特斯拉也要把Mobileye换成英伟达。除了情绪因素之外,更主要的是NVIDIA Drive是一个开放平台,自由度很高,特斯拉可以一边在英伟达的平台上练手,一边积累自己的软件和算法能力,为最后的自研铺平蹊径。

对“渣男”来说,所有的「现任」都将是「前任」。在拥抱英伟达的同时,特斯拉的自研究也在紧锣密鼓地举行着。

03

自研:吃着碗里的,看着锅里的

当马斯克最先搞AI时一定会有感想:相比于制造业,美国的AI和芯片人才着实是太多了。

追随1980年月最先就逐步外迁的制造业差异,美国在盘算机科学的三大应用领域——互联网、软件、芯片设计上一直保有雄厚的人才贮备。以ACM图灵奖获得者为代表的*科学家在高校、产业和研究机构里突破前沿,而数不清的高级工程师则在Google、苹果、微软、Intel等Top公司之间频仍流转。

特斯拉2015年筹备自研无人驾驶时,已是科技圈的当红炸子鸡,马斯克有资源从硅谷大厂里撬走各路牛人和大神。从2015年至今,特斯拉无人驾驶团队的架构历经多次调整,职员也熙来攘往,但无论是硬件照样软件,马斯克挑选的各个团队卖力人,基本上都是天下最*的科学家或工程师。

我们可以从几个大牛的简历中窥探到特斯拉Autopilot团队极高的人才密度:AMD K7/K8/Zen架构的开拓者Jim Keller、苹果芯片团队的焦点成员Pete Bannon、Swift编程语言的发现人Chris Lattner、OpenAI首席科学家Andrej Karpathy……

这里重点提一下Andrej Karpathy。这位出生于1986年的小哥是斯洛伐克人,15岁随怙恃移民加拿大,2015年获得斯坦福大学博士,导师是盘算机大神李飞飞,在读博时代他已经是人工智能届的超级明星,结业后直接介入开办了OpenAI。

2017年,他被马斯克厚着脸皮挖到了特斯拉,而从2017年到2022年,Andrej Karpathy一直担任特斯拉人工智能总监,并直接向马斯克汇报,直到2022年去职重返OpenAI。客观地说,他是特斯拉人工智能团队的最主要的缔造者之一。

而在巅峰时,特斯拉Autopilot团队拥有300多名*工程师(不包罗1000多名数据标注员),其中200人专攻软件,100人专攻硬件和芯片,马斯克在一次采访中说[8]:这些精英“人家随便去哪儿都能找到事情,没有谁是他们真正的老板。

在硅谷人才和自身光环的加持下,特斯拉禁绝备去抄英伟达和Mobileye的作业,那他们想怎么干?

自动驾驶的详细实现异常庞大,而且作为一门崭新的科学,新手艺、新蹊径、新突破层出不穷,但沿着我们前文提到自动驾驶的“四要素”(1. 感知数据 2. 焦点算法 3. 终端芯片 4. 盘算平台)来出发,基本上就能理清马斯克计划的重大蓝图。

首先,在「感知数据」方面,特斯拉选择了“纯视觉感知”方案,放弃了逐渐成熟的激光雷达、毫米波雷达等非视觉传感器。这一做法在业内独树一帜,难度相比其他主流方案直接拉高了一个数目级,在业界也引起热烈的讨论甚至争议。

特斯拉8个摄像头笼罩局限

自动驾驶领域大多数专家都以为“纯视觉”方案不能取,不少用户也颇有微词,以为在手艺不成熟的情形下就放弃雷达是对用户平安的不卖力任。马斯克对这些指斥置若罔闻,并果然取笑业界对高精度舆图和激光雷达等方案的依赖。

其次,在「焦点算法」方面,简朴来说就是特斯拉通过8个摄像头采集的2D图像,使用庞大的感知神经网络架构举行加工,构建出一个能够表征真实天下的3D向量空间,这个空间里拥有自动驾驶决议场景里所需要的险些所有信息,好比车道、行人、修建物等。

基于这个3D向量空间,特斯拉设计了一个HydraNet架构——Hydra是希腊神话中“九头蛇”的名字,意思是这套架构共享一个数据“躯干”(BackBone),为1000多个义务的“头”(Head)提供支持,好比物体检测、交通灯识别、车道线展望等。

这些义务的算法多数由云端的盘算平台在吞噬了伟大数据量后训练而来。因此,特斯拉的自动驾驶着实不存在“焦点算法”的观点,搭载在汽车终端上的是一个庞大的基于神经网络的系统,由无数个模块组合而成,宛如一座伟大的迷宫。

第三,在「终端芯片」方面,由于需要实时构建重大的3D向量空间,每一辆开启FSD的特斯拉汽车都需要极强的算力来消化海量数据。马斯克的应对思绪异常清晰:招募团队,自己重新最先研发自动驾驶的终端芯片,替换掉英伟达的方案。

这里需要区分的是:我们通常说的车载焦点芯片通常有两类,一类是给智能座舱提供算力的芯片,这一类特斯拉基本都外购成熟的消费级CPU,历代车型用过英伟达Tegra3(2012-2018)、Intel A3950(2018-2021)和AMD 的Ryzen(2021-至今)。

另一类则是给自动驾驶提供算力的芯片,算力要求更高,Mobileye和英伟达Drive PX2提供的是这类,特斯拉要自研的也是这类。思绪大致是:在“CPU GPU”的基础架构上再增添专门的AISC(专用集成电路),来解决潜在的算力瓶颈。

最后,在「盘算平台」方面,特斯拉之前是购置英伟达的板卡来搭建数据中央,但既然决议要自研车载终端芯片,爽性把训练算法的盘算平台也一并自研。2019年4月,马斯克在特斯拉Autonomy Day上首次宣布了超级盘算机Dojo的研发设计。

综合来看,马斯克试图吃透无人驾驶的每一个环节,这是一个充满野心和疯狂的设计。

特斯拉跟英伟达“分手”实属一定。一方面马斯克笃信“纯视觉”方案,试图跟其他厂商拉开差距,英伟达的通用硬件方案就无法知足需求了;另一方面,Drive PX2的售价高达10000美元 ,这对成本敏感体质的马斯克来说是一个难以安息的数字。

英伟达对特斯拉着实相当有诚意,除了在订价方面给予了很大折扣之外,黄仁勋还在社交媒体上晒出自己的特斯拉座驾以及和马斯克的合照,让人好像梦回2005年苹果与Intel的世纪牵手。但特斯拉基本上也在重复苹果甩掉Intel的故事。

黄仁勋可能低估了特斯拉的刻意和实力,在2018年8月的一次业绩电话聚会中,一位剖析师问及特斯拉自研芯片的影响时,黄仁勋先是谈了一下自研芯片的难度,然后说:“若是他们没搞出效果,给我打电话,我会很愿意协助的。”

电话聚会竣事后,马斯克立刻在twitter上回应,说话的塑料友谊感十足:“Nvidia制造了很棒的硬件,高度尊重黄总的公司。”同时又很司马昭地示意:“我们的硬件需求是很怪异的,需要跟我们的软件慎密匹配。”

2018年是特斯拉Autopilot自研的冲刺节点:人工智能总监Andrej Karpathy向导团队通过大型神经网络来训练算法;硬件大神Jim Keller和接棒人Pete Bannon主持终端FSD芯片的研发;元老级高管David Lau则率领近百人的团队改善数据采集和车机交互……

特斯拉能不能交出一张知足答卷?不仅英伟达想知道,全天下想抄作业的人也都在守候着。

04

谜底:特斯拉是汽车公司,照样AI公司?

2021年8月19日,当Andrej Karpathy在特斯拉AI Day上展示Transformer时,全天下的友商都瞪大了眼睛。

如前文所述,特斯拉“纯视觉”方案的*步,就是把8个摄像头采集的图像提取特征,融合成一个统一的三维向量空间。这个idea很相符“*性原理”,是基础中的基础,但实现起来极难,传统的基于2D图像的CNN卷积基本解决不了问题。

特斯拉的做法是用上了新鲜出炉的Transformer。在开头我们讲过,Transformer不仅处置自然语言在行,处置盘算机视觉同样是神器,在Google和OpenAI都事情过的Andrej Karpathy自然不会放过,在*时间就率领团队将其用在3D向量空间的确立上了。

这是一个伟大的突破。客观说只有解决了这个问题,特斯拉才有甩掉激光雷达的底气。

详细实现的方式,感兴趣的读者可以详读参考文献[15]。特斯拉率先使用Transformer之后,全球偕行们纷纷追随。应该说,Transformer除了把GPT大模子送到全球聚光灯之下外,它还在每一台具备自动/辅助驾驶功效的汽车里默默施展着作用。

固然,Transformer模子也只是特斯拉自动驾驶算法系统的一个“零部件”,跟它一起施展作用的尚有无数新老手艺。而且要注重:人工智能是一门日行千里、甚至在不停加速的科学,今天的“神器”到了明天,可能就会被更好的算法和模子替换掉。

Karpathy的展示只是特斯拉“全栈自研”的一小部门,由于差异团队进度的差异,面纱是逐步被揭开的。

首先亮相的着实是硬件。2019年4月,特斯拉终于公布了“自主可控”的自动驾驶硬件平台HW 3.0。全球科技圈对此期盼已久:老车主们重点关注能否免费升级,友商们纷纷掏出放大镜准备认真“学习”,而对冲基金和类似System Plus这样的咨询公司则迅速行动,在*时间对HW 3.0举行了拆解。

HW3.0和HW2.5(HW2.0的简朴升级)板卡对比图

HW3.0一共包罗4746个零件,其中两颗刻有Tesla符号的银色FSD芯片最引人瞩目。这款芯片是特斯拉硬件自研的*功效,由三星在得克萨斯州奥斯汀的工厂代工,接纳14nm FinFET工艺,面积约莫为260平方毫米,集成了60亿晶体管。

随后,在2019年8月的IEEE的Hot Chips聚会(高性能处置器顶会)上,特斯拉芯片卖力人Pete Bannon(Jim Keller已去职)展示了FSD的内部结构,可以看到特斯拉没有接纳英伟达通常的CPU GPU架构,而是接纳高度定制的CPU GPU ASIC架构。

这里的ASIC指的即是占有整块芯片*面积的两颗神经网络处置单元(NNA),即NPU。每颗NPU核的峰值性能可以到达每秒36.86万亿次运算(TOPS),功耗却只有7.5W。与之相比,GPU内核只提供0.6TOPS的算力,成为配角。

我们之前把CPU比做数学系教授,把GPU比做一年级本科生,那NPU就是CPU手下的在读博士,无需手把手指导,就能快速的举行卷积运算和矩阵乘法运算。简朴来说就是:NPU成为提供算力输出的主力,CPU和GPU退居辅助位置。

HW3.0平台上配备了两颗FSD芯片,相互校对,相互冗余,整个系统的算力就是144TOPS,是前一代HW 2.5的7倍多(20TOPS)。而依附推翻性的架构设计,整个系统的功耗降低到了220W,功耗比则从0.067TOPS/W跃升至0.65TOPS/W。

FSD芯片让特斯拉实现了芯片的“自力自主”,此时离他们*次购置Mobileye的产物只已往了短短5年。

而围绕自动驾驶“四要素”,特斯拉的突破还在继续。在2021年8月19日举行的特斯拉AI Day上,除了人工智能总监Andrej Karpathy详细论述了基于视觉的神经网络方案外,「盘算平台」的突破功效也被展示出来,即特斯拉Dojo ExaPOD超级盘算机。

Dojo ExaPOD由120个训练模块组成,每一个训练模块包罗25块特斯拉自研的D1芯片,总芯片数目到达了3000块。D1芯片由台积电代工,接纳7nm工艺,3000块D1芯片叠加起来,直接让Dojo以1.1 EFLOP的算力成为全球第五大算力规模的盘算机。

客观评价,特斯拉究竟是芯片领域的“新兵”,自研的芯片未必真的能媲美半导体巨头,尤其是研发Dojo的成本比从英伟达直接买还要高。但思量到特斯拉在险些时零基础的情形下挤进了AI芯片*梯队,这份成就单照样足够优异的。

自此“自己着手,人给家足”,马斯克对“四要素”的全链条掌控已经基本成型:

接纳“纯视觉方案”,焦点算法基于深度神经网络,在云端由自己研发的Dojo超级盘算机举行训练,终端上自研的FSD芯片实时处置周围环境数据,识别工具,展望行为,作出判断,最后控制车辆动作,实现自动或半自动的“智能驾驶”。

为了加速自动驾驶的成熟速率,特斯拉在2020年10月启动了FSD Beta的内测,面向的人群是一小部门愿意把现实天下的行驶数据上传给特斯拉来举行算法训练和干山的车主,而采集到的大量数据则会被喂给“云端”的超级盘算机来训练模子和算法。

大量花了15000美元选配FSD服务的车主愿意“自带干粮”给特斯拉充当“无人驾驶测试员”。2021年有2000多位车主加入了FSD Beta的内测;到2022年10月,这一数字飙升到了16万;之后FSD Beta向北美区域所有开放,介入车主数目到达36万。

海量的数据投喂给日夜一直的超级盘算机,带来了自动驾驶的快速迭代。在2022年的AI Day上,特斯拉给出了一组数据:采集了480万段数据,训练了75778个神经网络模子,其中有281个模子被现实用到特斯拉车上,推动FSD迭代了35个版本。

在披露这些数据前,马斯克在开场白中讲了一句话:基本上我以为,我们是人工智能在现实天下应用的无可争议的*。

在ChatGPT火爆全球之后,这句话的可信度显然打了不小的折扣。不外从2013年最先,特斯拉用了9年就吃透了人工智能的玩法,把AI搬上了数百万台汽车,从算法、芯片再到盘算平台所有实现自研,基本上*所有的竞争对手,包罗卖铲子的英伟达。

马斯克曾在微博称特斯拉的AI实力被“低估”

固然,争议始终随同着特斯拉。一方面,L4级的自动驾驶难渡过高,大量厂商被卡在L2级~L3级这一地带,纵然特斯拉的FSD更新到v11版本,也仍然没有脱节“Beta”的后缀。在今年2月初,特斯拉更是宣布召回了36万辆配备有FSD的汽车。

另一方面,特斯拉在营销「自动驾驶」时的激进也少不了被口诛笔伐,马斯克在推销自家的自动驾驶手艺方面不仅接地气,而且接九泉,吹牛、撕逼、PUA偕行、期货当现货卖……无所不用其极。这种「演出」,有时刻反而会让人忽略了特斯拉的真正实力。

但众所周知,特斯拉汽车在全球的热卖,现在跟自动驾驶关系不是很大,尤其在中国,FSD开通率只有可怜的2%不到,全球局限也只有10%~20%的水平。用户选择特斯拉汽车,更多的是由于品牌光环以及其在设计、制造、价钱方面的优势。

而特斯拉之以是延续投资人工智能,除了自己自动驾驶是一大营销卖点外,尚有一个缘故原由:人工智能将是未来20年人类最主要的科技主线。

电动车产业虽然坐拥风口,但本质上仍然是制造业,效率曲线的改善会逐步趋缓。好比,动力电池的容量不会每年翻一番,一体化压铸的成本也不会每年下降50%,特斯拉在制造环节的优势在渡过盈利期之后,早晚会被更卷的厂商追上。

但人工智能却像火箭一样在加速,并极有可能引爆一场像工业革命一样的浪潮。若是特斯拉能够从一家单纯的汽车公司,酿成一家拥有两大落地场景(汽车和机械人)的人工智能公司,那么今天投入的每一分钱,未来都将是跟竞争者的伟大优势。

不外特斯拉在AI领域的狂飙,经常被一些戏谑性的场景所冲淡。2022年10月,被业界期待已久的Tesla Bot公布,但三名吃力抬着机械人上台的壮汉让排场一度尴尬。两个月后ChatGPT引爆全球,Tesla Bot彻底成为全球AI狂欢的靠山板。

OpenAI用ChatGPT告诉我们:人工智能的生长总是出现非线性的,一旦“奇点”邻近,发作就会以难以想象的速率来临。谁都不敢妄言特斯拉测试两年多的FSD Beta不会在不远的未来取得突破,这台装了FSD芯片的机械人,也是一样。

从这角度出发,特斯拉这台电线裸露的Bot,是不是越看越像《复联2》的奥创或者施瓦辛格?

05

尾声:向老乡预警,给硅基带路

在2003年上映的影戏《终结者3》里,扑灭人类的超级盘算机——天网的算力是60 TFlops

二十年已往了,游戏玩家手上的一张RTX 4090显卡,就能到达100 TFlops,相当于1.67个天网;一张英伟达A100的算力(FP16)能够到达156TFlops,相当于2.6个天网,而ChatGPT背后的数据中央里,至少有2万张英伟达A100和性能更强的H100。

人类在科技树的某一个枝桠上「狂飙」时,想象力可能都无法跟不上措施。现在是2023年,Google揭晓那篇论述“注重力机制”的论文,距今只有5年;AlphaGo击败李世石,距今只有7年;而OpenAI这家公司确立,距今也才不到8年时间。

特斯拉研发无人驾驶的时间线,跟人工智能这门科学在近10年的突飞猛进密不能分的,而人工智能的演进速率会越来越快。OpenAI首创人Sam Altman刚提了一个新的理论:新的摩尔定律将会开启,宇宙中的智能生命每隔18个月将会翻一倍。

在特斯拉投资者日宣布的Master Plan 3(宏愿3)中,马斯克预期特斯拉未来每年能够生产2000万辆车——这也意味着,每年把2000万个拥有极强算力的硅基生命送到碳基人类的千家万户,同时这些终端的“智力”正在昼夜一直地进化。

影戏《教父》里柯里昂说过说:离自己的同伙要近,离自己的敌人要更近。马斯克显然明晰无法阻挡洪流,索性为硅基的崛起助力。至于这种“助力”,事实是碳基通往自由之路上的砖石,照样绞刑架上的绳索,马斯克可能管不了那么多了。

一边向碳基老乡预警,一边给硅基皇军带路,马先生已经做出了自己的选择。我们呢?

全文完,总长1.2万字,谢谢您的耐心阅读。

本文撰写获得了ChatGPT的鼎力协助,特此鞠躬。

参考资料

[1]. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale, 2020

[2]. Elon Musk @twittter,2014-2018

[3].South by Southwest Tech Conference, 2018

[4].汽车自动驾驶生长路径和产业链全景图, 未来智库

[5]. George Hotz Is Taking on Tesla by Himself, Bloomberg

[6]. Large-scale Deep Unsupervised Learning using Graphics Processors

[7]. Tesla AI Day, 2021-2022

[8].一个时代有一个时代的盘算架构,量子位

[9].与时间赛跑,特斯拉Autopilot进化史,汽车之心

[10].AI Chips: Challenges and Opportunities

[11].ChatGPT幕后的真正大佬,量子学派

[12]. Meet The 'Jedi Engineers' Responsible For Tesla Autopilot

[13].新能源汽车的联发科时刻,远川研究所

[14].鸿蒙座舱是怎样炼成的,饭统戴老板

[15]. Deep Understanding Tesla FSD: Vector Space,Jason Zhang