搞AI框架那帮人(二):贾扬清与阿里灵杰

亲爱的数据

亲爱的数据

· 2021.12.30

如今,产业正在经历大数据和AI一体化,需要经久耐用的底座。

播放 暂停

搞AI框架那帮人(二):贾扬清与阿里灵杰

00:00 33:18

图片来源@视觉中国

图片来源@视觉中国

文 | 亲爱的数据,作者 | 谭婧 

01 躲躲藏藏的宽阔

在人工智能(AI)的江湖,常听人言:得框架者,得天下。

谁主宰AI模型的生产自动化,谁最有可能主宰AI工业化。所以,深度学习框架是科技巨头兵家必争之地。

深度学习框架属于AI框架,是AI底层技术,而AI技术创新早已深入底层。没有什么道路可以通往底层技术创新,底层技术创新本身就是道路。

这条路,是隐秘的,深度学习框架作为AI系统软件,走近前去,才不断惊叹它那种躲躲藏藏的宽阔;走进前去,才不断惊叹战壕密布,战马喧腾。

低垂的果实已摘光,那些只消小打小闹(对人工智能模型做一些小调整,扩大人工智能模型的规模)就能刷论文、刷面子、刷一切的日子,一去不复返了。 

从历史中得到的唯一教训,就是从未从历史中得到教训。 而人工智能算法不同,偏偏擅长从历史中“得(学)到(习)”。

回顾从前,多款深度学习框架,待时而出,常听人言:为什么,这个深度学习框架受人追捧,那个深度学习框架遭人嫌弃?

贾扬清认为:“这背后是AI需求和设计逻辑的变化。”

像深度学习框架这样的计算机系统软件,大型项目经验被极客们追奉为信仰,而贾扬清是开源软件深度学习框架Caffe,Caffe2的作者,是谷歌深度学习框架TensorFlow的核心作者之一,亲手写了ONNX第一版代码。

一位技术大神可以是一个深度学习框架的作者,很难是全球流行深度学习框架的作者,极难成为多款全球大流行的深度学习框架的作者。

伸手一数,这个年龄段,这个履历表,放眼全球,除了贾扬清,很难找到第二人。

02 一时,性能是第一需求

车轮破开积水。

开场白,在雨中。撑着伞,边走边聊,贾扬清说:“对于技术来说,有一句话很重要,There is no stupid people, only misaligned priority(没有蠢人蠢事,只有搞错了的优先级)。”

深度学习框架的发展是螺旋式,谈论深度学习框架,绕不过它所解决的核心问题。某一段时间内,性能是第一需求;过一段时间,灵活又会变成第一需求。敲黑板,请记住“第一需求”。

搞人工智能,首先气质这块要跟上,手推公式,一面墙写满密密麻麻的公式,顿时身高一米八,气场八米一。

搞人工智能,其次能力这块要跟上,机房里动不动就是计算集群,一台计算机解决不了,一百台计算机合力上。一顿操作猛如虎,效率还在原地杵,那可是饶君掬尽湘江水,难洗今朝满面羞。

搞人工智能,光会数学不够,还要懂计算机,动不动赤手空拳面对一群计算机。虽然不是打群架,但也难敌成千上万张显卡,性能、资源、带宽、访存、大规模分布式系统,一个都不能少,都要搞定。

搞人工智能,不容易。假设一个工程师这样开始一天的工作:在计算机上每实现一个AI算法,都要用机器指令控制庞大的计算机系统,全盘考虑计算机底层资源是如何运转,如何分配的。这还不够乱,后面还有一千台计算机在排长队,看不到队尾那种。

于是,下班给老板写了一封辞职信,来男厕所第二个隔间处领取。

眼瞅着这种困难和复杂至极的情况,真是闻者伤心,听者落泪。往严重里说,运算AI算法和计算机的效率上不去,会拖住全球人工智能产业落地的后腿。

对此,搞深度学习框架那帮人旗帜鲜明地支持AI算法工程师,全神贯注于算法设计和实现,让深度学习框架解决这个痛点。而那些最先解决痛点的,往往是最先遇到痛点的。

2009年,谷歌公司率先建了一个框架,名叫DistBelief。

谷歌公司擅长计算机系统级软件,它不会放过任何机会。历史反复证明,在计算机系统软件的战场上,谷歌没有输给过任何公司。跑高铁,铺铁轨,跑算法,就要建框架。于是,谷歌建了。

如今谈起DistBelief,仿佛陈年往事。这个谷歌公司的闭源框架,从分步式系统设计的角度看,建得非常好。也有人把DistBelief视为TensorFlow的前身。

虽然最开始设计的时候不是专门为卷积网络设计的,但是,DistBelief给当时非卷积的网络架构提供了很好的设计基础。它的设计原理像大脑,厉害之处在于,那个时候,就能做超大规模的训练,搞定十亿参数。

谷歌浑涵光芒,雄视千军,做大型计算机系统软件,尤为擅长分布式,“大”从来不是问题,就怕不够“大”。

那时候,中国的新浪微博才刚开始走红,不像今天“微博舆论”已是大数据。那些AI训练所使用的数据,像夏汛的河水不断刷新水位线纪录。而那时候的深度学习框架,没有“张量(tensor)”的概念。

曾几何时,张量是物理学家喜欢的概念,但是数学家会说,我不满意物理学家对张量的看法。AI算法开发者说:“只使用,不争论。”

所有的光芒,都需要时间才能被看到。

2010年,深度学习在语音领域实现了突破,其中没有用到卷积网络。转眼一年后,2011年12月29日,一篇论文激起千层浪,一个炫酷黑科技大火了,计算机居然会自动找出猫咪图片。

这个AI技术,是谷歌的。让计算机来回答一张图片上的动物是不是猫,答案只有两个,是猫,不是猫。爱猫人士,一片欢腾,人工智能也爱撸猫,看来普通人和高科技的距离,只有一只猫。

猫火了,论文也火了,谷歌也火了一把,只有深度学习框架没有火。

那篇响当当的论文是在DistBelief深度学习框架上做的。那时候,谷歌公司就能自信地漫步在深度学习框架上,用成千上万的CPU核,训练数十亿参数,游刃有余地管理底层技术细节。

喵星人是网红体质,AI也是。

2012年,AlexNet模型一问世就成了网红,掀起了深度学习在图像识别上的高潮。这个模型有多重要?此后的大约十年内,有无数双渴(想)望(发)真(论)理(文)的眼睛都不停放电,不放过任何一点微小细节,哪怕论文里有些思路已不再适用。

AlexNet模型的背后是图灵奖获得者,杰弗里·辛顿(Geoffrey Hinton),论文的两位作者(Alex Krizhevsky和Ilya Sutskever)同出一个师门。那一年的国际竞赛上,他们的团队是唯一使用神经网络的团队。

日后从创业到被谷歌收购,一路火花带闪电。

Alex是常见英文名,有战士之意,这个名字的常见程度,类似于中国的“建军”。为了训练模型更顺畅,建军博士Alex Krizhevsky手写了一套深度学习框架,名叫Cuda-Convnet,完全是为了搞科研,顺手而做。

起初,建军博士Alex Krizhevsky搭建了支持快速科研迭代的一套代码,在GPU上快速跑神经网络。随后,用比较简单直接的C/C++代码和手工定义模型格式,不加入太多大工程的抽象和设计,一切按从简于易的思路设计。

草率批评的人会说,很难体系化。建军博士Alex Krizhevsky可能会儒雅地回怼:“奇技淫巧,吾不以为意也。”

深度学习框架Cuda-Convnet的整套代码,是典型的科研代码,大牛才能写出来,缺憾是不重(理)视(睬)工程设计,没有太关注模块化和抽象化的能力。那时候,手写框架大神出手对付科研,足矣。

出生于那个时期的深度学习框架,身上留有“时代的烙印”,天时地利决定了它不是为工业化而生。不能往大处用又怎么样?不求孤名做霸王,打遍天下做拳王。

03 Caffe问世,人间值得

夕阳暮火,纽约大学晚风撩人,加州大学伯克利分校晚霞灿烂。

美国纽约大学杨立昆团队推出的OverFeat深度学习框架,也完全是出于自用,完全以搞科研为目的。甚至连起名字也没有多费心。OverFeat是一篇论文提到的算法名字,时至今日,再度提起这个框架,有一种考古挖掘的既视感。

从2009年8月开始的四年零五个月里,贾扬清在美国加州大学伯克利分校读博士,在计算机视觉小组,他悄然发现Cuda-Convnet是个宝藏,代码在优化方面写得特别精妙。

他按捺不住惊喜,找到了建军博士Alex Krizhevsky,只为此间精妙,哪怕从头写一遍Cuda-Convnet全部代码。

有些问题,早已藏在心底,期待被人问起。作为AI的使徒,建军博士Alex Krizhevsky心底的问题被贾扬清问到了,Cuda-Convnet是怎么设计出来的?

建军博士Alex Krizhevsky的语气儒雅温柔:“因为我们成立了科技公司,代码属于商业知识产权,不能分享代码,但是,如果有什么科研实现上的困难,可以随时问问题。”

为了尊重知识产权,除了开源Cuda-Convnet之外的任何一行代码,都不可分享。但是,智慧和经验都可分享,一段不限时长的在线Q&A开始了。此后,当贾扬清和团队遇到困难,就会得到帮助。这是上一代全球流行的深度学习框架Caffe最开始的故事。

一段伟大的旅程,出发时,往往只为实现一个小目标。

那时候,贾扬清的想法很简单,让加州大学伯克利分校的队友们,更容易尝试花式新算法,跑模型的工作更加体系化。

贾扬清心惟其义,潜心学习了Cuda-Convnet的写法,主要是学习高性能代码的设计思路。

他打算重新写一个框架,实现和Cuda-Convnet一样的功能,设计地更加体系化,更多工程上的抽象,同时又有完整的单元测试。

有些工作,一旦开头,就停不下来了。贾扬清和团队先写了一个基于CPU的框架,叫Decaf。再写了一个基于GPU的框架,叫Caffe(C-A-F-F-E这个五个字母,分别是论文“快速特征提取的卷积框架”英文简称的首字母),读音咖啡。

Caffe的论文还对比了OverFeat,Decaf,Torch7,Theano/Pylearn2,Cuda-Convnet这几位框架界的前辈。

巧合的是,第一眼看到这个开源框架的AI开发者,可能要惊讶到“喝杯咖啡,压压惊”。深度学习框架Caffe的出现,方便了万千AI开发者体系化的开发模型,远离那本叫做《颈椎综合症的康复与治疗》的破(恶)书(梦)。

说深度学习框架Caffe是许多AI开发者的初恋,并不为过,知乎帖子里的回忆杀,至今仍有开发者把Caffe的源码梳理了好几遍,一种经典永流传的既视感。

早期计算机视觉创业公司则拿出看性感美女的眼神打量Caffe,一秒钟也不能等了,立刻上手。谁拦着,就急眼,谁挡着,就拼命。

人头攒动中,人群高喊:Caffe来啦,快用啊,没时间解释了,老司机开车啦。

作为贾扬清创建的开源项目,Caffe由美国加州大学伯克利分校视觉和学习中心在GitHub上一个活跃的贡献者社区的帮助下,维护和开发。

Caffe出生的时候,贾扬清是博士生,买设备,很抠门,好在英伟达公司捐赠了一个6000美元的GPU,他又去美国亚马逊网站攒了一个600美元的电脑。大家开玩笑说,这套装备的净值是6600美元。

谁能想到,老司机的车,是小马拉大车。

这不是传闻,这是贾扬清在Caffe项目上真实的工作条件。直到今日,贾扬清仍然感怀Cuda-Convnet的“功劳”,引用他的原话就是:“特别是一些算子实现,都是受到了它的启发。”

传承是一种科学精神,无论后辈致敬前辈,还是前辈关怀后辈,都好似春风拂面,阳光醉人。

贾扬清曾在知乎上聊过一个小段子。

美国斯坦福大学著名的李飞飞教授(这位是女神版,阿里巴巴还有一位男神版)经常关心华人学生。贾扬清在加州大学伯克利分校念博士的时候,有一天,李飞飞教授突然问了贾扬清的导师Trevor Darrell教授一句:“贾扬清这学期没干啥事儿啊!(Yangqingis just doodling around in the last semester!)”

从斯坦福大学到加州大学伯克利分校,开车需要一小时,AI大牛教授洞察一位博士生只需一个念头。请估算贾扬清的心理阴影面积和感动函数。

那些时光冲不淡、风尘吹不散的日子,偶然念及,岁月静好,人间值得。

04 吹响军团作战冲锋号

一路奔,一路跑,

深度学习算法豹变,深度学习框架虎啸。

著名的AlexNet之后,优秀的VGG,GoogLeNet等深度学习算法模型,以山洪暴发之势,冲刺精确度,横扫江湖。

建军博士Alex Krizhevsky有一句著名的玩笑,“用两个GPU,就超越了谷歌工作的性能”。读懂这句的人,无不感慨算法创新的魅力如此之大。

算法强,就能在同等条件或者更少算力的条件下,仅凭才华,以寡敌众,以穷胜富,以少赢多。然而,深度学习框架那帮人心里却在想另一件事,既然算法创新如此迅猛,就得有相应的软件框架去实现。

那时候,谷歌AI掌门杰夫·迪恩(Jeff Dean)和美国斯坦福大学博士安德烈·卡帕西(Andrej Karpathy)常常叫上精神小伙们,围桌讨论。

这种天才小论坛,在当年,一间屋子也就够坐了。杰夫·迪恩(Jeff Dean)偏超大工业工程,安德烈侧重前沿学术研究。那个时候,这群精神小伙中有很多人还是学生,他们时常讨论AI将有什么样的创新。

有人称杰夫·迪恩(Jeff Dean)为“姐夫”,是杰夫的谐音,但是称他为天才并不为过。

安德烈·卡帕西(Andrej Karpathy)则是“全身热恋”,个人网页向AI告白“karpathy.ai”“我喜欢在大型数据集上训练深度神经网络”。

后话是,安德烈·卡帕西(Andrej Karpathy)于2017年离开谷歌去了特斯拉,同年,建军博士AlexKrizhevsky也离开谷歌。

贾扬清做Caffe项目的时候是博士生,周围很多AI大神也仍在求学。那时候,大家喜欢在性能上比赛,我的性能比你好,你的性能比我好。所以,算得快,很重要。

“自建”深度学习框架时代,“第一需求”是什么?答案是性能。

纵观这个历史时期,深度学习框架先要让模型性能受益,其他顾不太上。深度学习框架没有“大一统”,深度学习框架都很简单,很小。

这好比新石器时代的河姆渡人盖房子,盖得简单,但也可以为原始人遮些风,挡些雨。那时候,哪有毗邻名校,楼层视野,小区绿化,周边配套等讲究。

忆往昔,搞深度学习框架这群人雕刻灵魂,也雕刻了岁月,他们不急不躁,对AI技术的促进自不用说,对AI产业潜移默化,让人敬畏。

深度学习框架当中,Theano比较偏向数据科学家的使用,用Python编程语言,用代码生成模式。而Torch则不同,关注灵活的迭代,用Lua编程语言。

Lua这个语言,小而美,它在游戏领域很受欢迎,允许与C数据结构简单接口,只可惜后来日渐式微了。有不少人很喜欢,用熟了就继续在深度学习框架中使用。

俗话说,熟土难离。这个细节反映出,那个时代,不争抢,不内卷,大家都是怎么熟悉怎么来,怎么顺手怎么来。也反映出,Torch从一开始就是重视易用性理念,而不关心新技术思路的实现。

性能为王的岁月,英伟达公司敏锐参与了趋势,和搞深度学习框架那帮人常有沟通,互帮互助,带动大家伙为深度学习框架贡献代码。

这里加一个小段子,英伟达的产品线刚刚开始有AI计算的时候,有一个捐赠计划可以让贾扬清选两种GPU。一种仅用于AI计算,不能玩游戏。另一种,保留了游戏用途的接口,不仅可以做计算,还可以玩游戏。当时,贾扬清想也没想,选了前者。回头一想,竟然后悔。

cuDNN是英伟达用于深度神经网络的GPU算子库。如今,已经是各大品牌的深度学习框架都会调用的工具。英伟达先知先觉,谷歌后知后觉。

2014年前后,深度学习框架DistBelief的设计,不太适合深度学习里的一种新思路,张量(tensor)。所以,谷歌内部也持续有讨论的声音传出来,新的框架应该怎么做。没有人明确说他们正在做的,就叫DistBelief 2.0。

如果要写新的框架,那应该是怎么个写法?这个问题成为谷歌搞深度学习框架的科学家的第一要事。更准确地说,新一套,而不是新一版,迈开大步,换个思路,重新设计。

贾扬清和部分Torch的作者打卡谷歌后,开心地发现,不少老面孔已经在DistBelief团队里了,谷歌让开源深度学习框架作者有机会欢聚一堂。

这时候的谷歌,可谓是,深度学习框架的天下英雄,皆入我营帐之中。于是,谷歌率先发力,一堆石头打得纷飞,流星对空乱撞,好一番激荡。2015年10月,TensorFlow问世了。

人人都知道谷歌的系统能力独步天下,但又都想知道,谷歌公司的系统能力到底有多强?

总体说来,TensorFlow的设计非常有启发性。可以把TensorFlow理解成为谷歌软件能力的综合体现,既能看到,众人拾柴火焰高,开源社区中所能见到的,已有的设计思路,都被很好地用了起来,比如说像计算图,张量(tenor),它是一个集大成者,同时解决了性能和规模化,把分布式也做起来了。

TensorFlow的问世,让人怀疑谷歌不是来做产品的,而是来展示实力的。再细测试能力,规模化分布式的能力,都很强,不偏科。

这是一个深度学习框架的里程碑事件,标志着学术制造(博士生和研究生做框架)的时代,轰然落幕。

那时候参与第一代深度学习框架的人中,有不少搞科研的学生,他们不是师出名门,就是高足弟子,充满科研热情。清点一圈,哪个都非等闲之辈。夜幕降临,深蓝色的星空之下,他们是拓荒者,刀耕火种,围坐篝火。

这时候,谷歌TensorFlow来了,刀耕火种时代的篝火晚会结束,深度学习框架开启军团作战模式,冲锋号吹响了。

05 易用和稳定,各登一顶

岁月弥久,梦已七年。

2016年是TensorFlow高速发展的一年,杰夫·迪恩(Jeff Dean)的演讲里,论文引用次数指数级暴涨。

TensorFlow的热火朝天之中,一个需求像初生嫩芽一样,从土壤中探出了脑袋,并迅速在开源社区产生集体共鸣。

TensorFlow难学难用,恰逢其时的是,性能讲了那么长的时间,GPU的计算速度也很快了,高速迭代不需要100%的性能,85%就可以了。这时候,人力成本上升为最大的成本。

开发者拼了命地呐喊:框架得易上手!这个呐喊,是在呼吁易用性。此时的需求明摆着,就是易用。

Torch是火把的意思,易用性点燃了深度学习框架PyTorch的火把,搞深度学习框架那帮人惊讶地发现,烽火连三月,易用抵万金。

这个让TensorFlow最忠实的用户认为最不符合逻辑的地方,一定藏着最深刻的逻辑。时来天地皆同力,PyTorch生逢其时,正巧解决了TensorFlow一个超大痛点。

PyTorch起步比TensorFlow晚,拼资源也不占优势,谷歌的资源不比市场上任何一家差。创始团队思前想后,决定直捣黄龙,这条龙就是易用性。俗话说,宁走十步远,不走一步险,其他特点不是不重要,而是顾不上,PyTorch团队孤注一掷,把易用性,打穿,打透。

这种打法,逼着PyTorch只靠“易用性”这一拳,打出了四海八荒之力。基础设施投资是巨大的,PyTorch最初的原因是投入少,唯有这种打法需要较少的资源。

这个选择,有赌的成分,但是,这一次,PyTorch赌对了。

上手PyTorch的人,都会觉得好用。相信当谷歌TensorFlow内部的人看到,并且试用PyTorch的时候,也会赞叹其易用性。但是,他们肯定还是相信TensorFlow是世界上最好的框架。

2017年前后,人们会发现很多古老的计算机视觉模型是用 Caffe 写成,很多新研究论文是用 PyTorch 写的,而更多的模型用TensorFlow写成。

不同的框架,不同的格式。

从框架A翻译到框架B,从框架B翻译到框架C……“翻译”完,还要写一堆测试。民怨沸腾了,有关部门得管管。

因此,ONNX(Open Neural Network Exchange)身负重任而来。2017年最后一个月,ONNX的第一个版本发布,第一版代码是贾扬清手写的,而最早投入ONNX的两位开发负责人是白俊杰和张振瑞,前者还在贾扬清团队,后者仍然是PyTorch团队的核心成员。

贾扬清认为,ONNX的定位不是取代各种框架,而是让大家做事顺畅,ONNX辅助性地来解决这个问题。

脸书公司的PyTorch为什么成功?

因为科研的百花齐放,渴求灵活。

谷歌公司TensorFlow为什么成功?因为当时,AI正以熊熊大火燎原之势,席卷工业界。那时那刻,需熔炉炼钢之火。需要集团军作战,需要工业界不可或缺的稳定性。

成也萧何,败也萧何。TensorFlow是工业级的软件,学习门槛非常之高,开发者不禁会发出“危乎高哉,蜀道难”的感慨。这背后是计算机系统软件的稳定性提升,必然伴随复杂性的攀升。

PyTorch,像小汽车,容易上手,但是,规模化难。

TensorFlow,像高铁,体量巨大,但是,新手难操作。

易用性和稳定性,这是两个存在且合理的需求。两者各翻越过生态的天堑,双方各争下了一个山头。设计深度学习框架永远不是需求,而是手段。

TensorFlow解决了AI工业化,PyTorch解决了AI科研百花齐放。

很多人认为,最近几年,深度学习框架这一块,至少在TensorFlow和PyTorch的竞争中,几乎尘埃落定。为什么?因为这两个需求已经基本解决了。

贾扬清认为,重复建设深度学习框架,好比整条街的咖啡都不太好喝,既不解决咖啡豆的问题,也不解决咖啡机的问题,直接重新开一个咖啡店。

在刀耕火种时代,在“第一代深度学习框架”之中,为什么会出现Caffe,Torch,Theano等多款深度学习框架,因为探索之处确有需求,实实在在的需求。

在贾扬清看来,深度学习框架的效率分为两个,第一个是开发者的效率,第二个是计算机软件系统和执行的效率。

易用性解决的是开发者的效率。那计算机软件系统和执行的效率呢?

此时,深度学习框架要想做得好,关键在于把“很底层很底层”的技术做高效,而不是重新做一个深度学习框架。而这部分的工作很硬核,加料一小段科普。计算图,也可以理解为提前设计好的路线图。

简单说,深度学习框架训练模型的时候,有这样一件事情需要在深度学习框架里完成,且考验效率。出发时得一步一步来,喂数据,顺着路,直到拿到一个输出,完工。

这里的“路”就是,训练模型的路。

到底该怎么走?先去五当山,还是光明顶?

计算图里的“图”,分为静态图和动态图。静态图一早就定好这个过程,不让改(深度学习框架也会把过程做个优化,计算起来效率高)。动态图则不然,每次每批数据出发之前,允许路线图变化。

深度学习框架里的一招鲜,不能吃遍天下。

很多人都在问,有多款深度学习框架可选,这一款有什么不同价值?如今,仅靠一种图的形态已经没法解决问题了,“低垂的果实”已经没有了,需要灵活运用,巧妙出手,才能走出新路。

如今的天下,是人人都有深度学习框架用的天下。

下一步的竞争,是到底算得好不好,快不快,准不准。搞深度学习框架那帮人,就各有各的绝招了。

06 下一步,竞争什么?

如今,深度学习框架的核心难点,并不是没有框架可用。

贾扬清认为,如今的深度学习框架的核心难点有两个:往下如何兼容硬件,往上如何实现更好的分布式开发。

兼容硬件这件事,和编译器有关。有句俗话是,男儿有泪不轻弹,只是未见编译器。一位老资格的AI算法工程师曾回忆,大学编译器课上,他哭了,是被编译器给气哭的,因为太难了。所以,一生躲着编译器走。惹不起,还躲不起?

果然,不出意外地出了意外。如果不是亲眼所见,他是万万不敢相信。当AI模型“下地干活”,编译器的糟心事儿,又回来了。

哭有啥用?BM-13“喀秋莎”多管火箭炮已经把炸药倾泻到编译器的战场了。战争不相信眼泪,深度学习框架在拼“谁可以更好地编译和优化”。

一般来说,深度学习框架开发者只想着为少数服务器级硬件(GPU)提供支持,而硬件供应商则更愿为部分框架开发自己的库。两边自顾自高筑墙,把周围的战壕土都用光了,于是,低头一看,竟然挖出一个大坑来。

将AI模型部署到新硬件,需要大量的手动工作,如此一来,谁来填坑?说到底还是深度学习框架。这样问题就总结出了,深度学习框架,往下如何兼容硬件?

只能让深度学习框架和硬件平台对接好,而不是对每种新硬件类型和设备都开发新的编译器和库。

说到编译器,也有很多种,有图学习的编译器,有数据库的编译器。但深度学习编译器一来,就可以将AI编译器单独分一类了。与传统编译器类似,深度学习编译器也采用分层设计,包括前端,中间表达(IR),后端。

其中,编译器和中间表达,就像异父异母的两个亲兄弟。一般来说,编译器的优化是把中间表达部分里一些可以跑得更快的地方,改动一下。

贾扬清心中的未来,可能是,AI编译器可以为运行的任何硬件生成机器原生代码,无需担心中间表达。用深度学习框架写的模型更自动化,模型跑得更快。这样,AI产业有机会整体提效。贾扬清说,互联网大厂的AI工程体系还在整合。AI的落地情况,好比1980年代的“现代化”,楼上楼下,电灯电话。

搞深度学习框架那帮人一个岗位饰演多个角色,从算法研究员,软件工程师,数据工程师,应用工程师,到系统统工程师。千难,万难,自己选的路,跪着也要走完。

讲一个真实的案例,一位多金且懂行的客户说,这里有一个图片识别模型,想跑得快一点。

本质上,事到如今,AI还不是超级APP。

这里有两层含义:

一、不是一个单点产品就能大包大揽AI所有能力,而是一系列能力的组合;

二、AI非常强烈地需要标准软件+定制化服务。

远见者稳进,稳健者远行,贾扬清为什么发布阿里灵杰,发布阿里整体大数据+AI能力?

回望八年前,一个工程师具备训练图像识别模型的能力,就已经是AI开发者里的高手。

如今,已经是将AI的算法和数据、场景结合起来,去构建一个完整的解决方案,解决各行各业当中的实际问题。

贾扬清认为,从开发的角度,从写下第一行代码,到完成第一个AI模型,需要多久?

从应用的角度,从抓住一个需求,到AI产品原型上线,需要多久?

对于阿里灵杰来说,从底座,到上层应用,整体都能让开发者按需取用,开箱即用。

这样,才有可能在云上画出人工智能第二增长曲线。

如今,产业正在经历大数据和AI一体化,需要经久耐用的底座。

在阿里云的底座里,阿里云机器学习平台PAI出手就是一(流)条(水)龙(线)服务,管资源、管任务。大规模分布式训练框架Whale,可以理解为是PAI里的一个软件包。数据仓库MaxCompute支持大型分布式数据计算。DataWorks提供一站式数据开发、管理、治理平台。

学生时代,贾扬清的电脑显卡性能不强,玩3D游戏《荒野大镖客》会把游戏画面设置到最低,以免画质感人。时间一长,“随手最低”习惯成自然。

工作后,贾扬清如愿以偿,换上最强显卡。初初上手,仿若从前,突然,他想起显卡不再是从前的显卡。快,快,快把游戏画面设置调成最高,享受一下。那一刻,贾扬清看到了一个完全不一样的游戏。

从1956年的达特矛斯会议算起,2021年的AI已走过65个春秋,时间好不经用,抬头已过甲子。搞深度学习框架的那群人,说到底是做基础设施的人,他们相信,会有一天,AI生产工业化一片坦荡,大数据和大模型在流水线上高速冲浪……

那时候,人们将看到一个完全不一样的AI。

致谢:感谢贾扬清,他耐心地回答了我的数百个问题,使这篇文章成为可能。 

本文系作者亲爱的数据授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本文观点仅代表作者本人,钛媒体平台仅对用户提供信息及决策参考,本文不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

”支持原创,赞赏一下“
钛粉30326 钛ae5u70 满级钛宝16422180875 马洋928 钛小超16395556011 钛粉25713
514人已赞赏 >
514换成打赏总人数514人赞赏钛媒体文章
关闭弹窗

挺钛度,加点码!

  • ¥ 5
  • ¥ 10
  • ¥ 20
  • ¥ 50
  • ¥ 100

支付方式

确认支付
关闭弹窗

支付

支付金额:¥6

关闭弹窗
sussess

赞赏金额:¥ 6

赞赏时间:2020.02.11 17:32

关闭弹窗 关闭弹窗

注册邮箱未验证

我们已向下方邮箱发送了验证邮件,请查收并按提示验证您的邮箱。

如果您没有收到邮件,请留意垃圾邮件箱。

更换邮箱

您当前使用的邮箱可能无法接收验证邮件,建议您更换邮箱

账号合并

经检测,你是“钛媒体”和“商业价值”的注册用户。现在,我们对两个产品因进行整合,需要您选择一个账号用来登录。无论您选择哪个账号,两个账号的原有信息都会合并在一起。对于给您造成的不便,我们深感歉意。