100笔趣阁

手机浏览器扫描二维码访问

第四章 逐鹿硅谷AI产业争霸战(第1页)

一秒记住【xiaoyanwenxue.com】精彩无弹窗免费!“罗辑思维荐书集锦(套装共24册)(.shg.tw)”!

第四章逐鹿硅谷——AI产业争霸战

导读

这一章不谈理论和技术,只谈AI的产业生态。对于想抓住AI时代投资机会的人,这章提供了对AI产业和商业的一个基础理解。没有读过前面章节的读者也可以直接读这一章。

最新技术巨浪

人工智能毫无疑问是继移动互联网之后的一次超级大浪,其规模和影响至少是互联网级别的。这次创新大浪启动的标志性事件是2012年的ImageNet比赛。ImageNet目前有1400万张图片,其中上百万张有文字标注。标注的文字通常是用短语描述该图片的内容(例如“草地上卧着的一条黄狗”)。ImageNet的比赛主要是看谁的程序能够最准确地识别出图片的内容。在2012年以前,识别主要是人工选择物体特征并且写出识别这些特征的程序,准确率的最高水平一直在74%左右徘徊。2012年,亚历克斯·克里捷夫斯基使用多层神经网络AlexNet一举把识别率提高了10个百分点,达到84%。

这个突破性结果立即引起了产业界的强烈兴趣和关注。谷歌大脑的负责人杰夫·迪恩(JeffDean)敏锐地发现了这个重大机遇,他用了一年的时间说服了谷歌当时的CEO(首席执行官)兼创始人拉里·佩奇(LarryPage),开始全公司大举转型AI,随后Facebook、微软、百度等科技巨头纷纷跟进。如图4.1所示,在今后几年,神经网络不断提高识别的准确率,终于在2015年达到96%的准确率,超过了人类所能达到的95%。这些突破证明了机器学习可以开始解决实际问题,也让工业界认识到了巨大的商业潜力。但这个突破来之不易,AI走过了60年的艰辛道路。

图4.12010—2015年ImageNet大赛历年识别准确率

图片来源:http:yann.lecun.。

AI突破三要素

AI发展了60年,为什么到今天能够突破?这是由于长期积累的三个条件成熟了。

第一个条件是计算能力。计算能力和半导体的集成度(在单位半导体材料面积上可以集成的晶体管的数量)直接相关。从第一个集成电路晶体管诞生以来,在过去的50年中,半导体的集成度的增加速度基本遵循“摩尔定律”。1965年4月19日,《电子学》杂志(Electronics)发表了仙童半导体公司工程师戈登·摩尔(GordonMoore,后成为英特尔的创始人之一)撰写的文章《让集成电路填满更多的组件》,文中预言半导体芯片上集成的晶体管和电阻数量将每年增加一倍。1975年,摩尔在IEEE(电竞和电子工程师协会)国际电子组件大会上提交了一篇论文,根据当时的实际情况对摩尔定律进行了修正,把“每年增加一倍”改为“每两年增加一倍”,而这个定律经过传播演化,变成今天普遍流行的说法“计算机运算速度每18个月提升一倍,价格每18个月下降一半”。1970年一个芯片上的晶体管数量约为1000个,今天一个芯片上的晶体管数量达到100亿个,不到50年中提高了1000万倍。相应地,计算能力也提高了1000万倍。目前虽然单个芯片的晶体管数量增加速度放缓,但人们开始把成百上千个芯片封装在一起以便提高总的计算速度。

计算能力对人工智能的巨大推动还体现在一个标志性事件上——GPU(图形处理器)被用于训练AI算法。2009年,斯坦福大学计算机系教授吴恩达和他的博士生拉加特·蓝恩纳(RajatRaina)第一次提出由于神经网络中大量计算可以并行,用一个GPU可以比双核CPU快70倍,原来需要几周完成的计算一天就可以完成。之后纽约大学、多伦多大学及瑞士人工智能实验室纷纷在GPU上加速其深度神经网络。赢得2012年ImageNet竞赛的AlexNet同样用的也是GPU。从此之后,GPU就在神经网络的训练和识别中树立了公认的王者地位。再到后来AlphaGo发威战胜人类顶级围棋手,背后则是谷歌自行研发的专为深度学习使用的TPU发挥了重要支撑,每个TPU可以提供10倍于GPU的计算能力。在本章中将会详细分析为什么TPU比GPU快。

第二个条件是数据。如果说算法是火箭发动机,那么数据就是燃料。由于互联网的发展和各类传感器(例如在各种环境中的温度、位置、压力等物理化学变量的测量,社会中大量摄像头的存在)成本的大幅下降和广泛安装,根据IDC(互联网数据中心)的监测统计,2011年全球数据总量已经达到1.8ZB(1ZB=1万亿GB),相当于18亿个1TB的移动硬盘,而这个数值还在以每两年翻一番的速度增长,预计到2020年全球将总共拥有35ZB的数据量,增长近20倍。

这比从人类出现到计算机出现前产生的所有数据都多。以目前的传感器技术发展速度,若干年后回头看今天的数据量,不仅量小而且数据采集的密度和广度都远远不够。

第三个条件就是那批甘愿坐“冷板凳”的科学家经过了几十年的积累,终于从2006年开始在算法上有了重大突破。当时在多伦多大学任教的辛顿教授在美国《科学》杂志和相关的期刊上发表了论文,证明了深度神经网络的能力和实用性。从此,基于多层神经网络的深度学习理论成为本轮人工智能发展的重要推动力,相当于过去飞机从达·芬奇设计的扇翅膀的飞行器变成有螺旋桨的发动机,人工智能的概念和应用开始一路攀升,语音识别、机器视觉技术在几年间便超过了人类的水平。

正是算力、数据、算法这三个要素同步成熟,形成合力,终于带来了今天AI的爆发。这三个要素中最重要的是计算能力的发展和算法的互相促进。

金字塔形的产业结构

一个产业的生态主要是指这个产业有哪些环节和这些环节之间的关系,例如哪个环节是生态的瓶颈并掌握最强的砍价能力。更深入的产业生态分析还包括各个环节的未来发展以及对整个生态的影响。AI的产业生态如图4.2所示,是一个金字塔形的结构。

图4.2AI产业生态的金字塔形结构

金字塔的下层对上层有依赖性,但反之不成立。也就是说上层是驱动力,是自变量,下层是驱动结果,是因变量。金字塔的宽度大致对应市场规模和公司的数量。所以越上层对整个行业的影响越大但市场规模越小,越下层市场规模越大但影响越小。

产业的皇冠:算法

我们前面说过,AI近年的突破性发展的三个驱动因素之一是神经网络算法的突破。其实这是三个因素中最重要的因素,因为其他两个因素(计算能力和数据量)属于“搭便车”。目前研究算法主要集中在美国的一流大学和几家超级互联网公司(谷歌、Facebook、亚马逊、微软、IBM、百度等)。大学的算法研究大部分都是学术性和公开的,而大公司的算法研究最核心的只留给自己用。专门研究算法的私人企业屈指可数,一家著名的算法公司就是被谷歌收购的大胜围棋世界冠军的DeepMind。另一家是由硅谷老将,曾经做出世界上第一台掌上电脑PalmPilot的杰夫·霍金斯(JeffHawkins)创办的Numenta(公司名来自拉丁文mentis,意为“心灵”)。Numenta是一个由私人资助的研究所,他们过去十几年专注于发展一种叫作层级时序记忆(HierarchicalTemporalMemory,HTM)的算法。这种算法受大脑新皮质中锥体细胞的启发,网络结构远比各种神经网络复杂。这种算法的一个特点是可以连续学习。神经网络都有一个缺陷,在模型训练完毕后,如果有新数据可以用,就必须把新数据和原来的老数据合并在一起重新训练模型。而HTM的连续学习没有这个缺陷,当新数据来了以后,只要继续把新数据喂给模型即可。HTM的第二个优势在于可以将物理世界的基本常识融入模型。Numenta并不寻求直接提供商业解决方案,而是仅仅提供算法的许可,让合作伙伴用自己的算法来解决商业问题。Numenta还提供了开源的平台,让更多的开发者在这个平台上完善HTM算法。从Numenta出来创业的威德罗教授的博士生迪利普·乔治(DileepGeorge)基于HTM创办了一家做机械手通用软件的公司Vicarious。相对于应用,纯粹做算法的公司少得可怜,原因主要是缺乏商业模式。

技术制高点:芯片

半导体芯片是一切信息技术的基础,有了芯片才有电脑和存储,有了电脑和存储才有互联网,有了互联网才有大数据,有了大数据才有人工智能。在这每一波的发展中,芯片都是最关键的环节,芯片厂商总是处在霸主地位。在大型机时代,能够自己开发芯片的IBM独占鳌头。在个人电脑时代,能够生产出最好的CPU的英特尔成为新的霸主。在移动通信时代,高通(Qualm)几乎垄断了手机芯片,直接挑战英特尔的霸主地位。在云计算大数据时代,三星(Samsung)凭借自己在存储芯片方面的优势成为世界半导体第一大厂家。在人工智能时代,谁将是新的霸主?

这个新霸主的桂冠很可能落在硅谷的半导体公司英伟达(Nvidia)头上。英伟达成立于1993年,创始人是出生于中国台湾,小时候随父母来到美国的斯坦福大学毕业生黄仁勋(Jen-senHuang)。公司最初是做电脑图形显示卡,20多年来一直在研发销售图形显卡和图形处理芯片GPU。除了工业应用之外,图形显卡的最大市场是电脑游戏,今天高端电脑游戏里面几乎清一色用英伟达的显卡。当电脑游戏市场开始成熟后,英伟达也曾经想进入手机市场并收购过相应的公司,但是并不成功。直到2012年上天为准备好了的英伟达掉下一块“大馅饼”,这个馅饼就是我们前面提到过的2012年的ImageNet比赛。在这个比赛中取得突破的AlexNet的发明人亚历克斯就使用了英伟达的GPU,证明了GPU非常适合用于有许多并行计算的神经网络,比CPU快得多。在这之后的几年,其他人都开始采用GPU,比谁能将网络做得更大,层数更多。从此以后,GPU成了神经网络计算的引擎,相当于CPU对电脑的作用一样。

为什么GPU会成为神经网络计算的引擎?训练神经网络就相当于调黑盒子上的旋钮,调旋钮是通过数学的算法调的,这些旋钮动辄几十亿个,需要大量的计算。传统电脑用的是CPU,用CPU去调旋钮相当于调完第一个再调第二个,一个一个按顺序来,虽然现在CPU很快,但神经网络的旋钮实在太多了,连CPU都招架不住了,这时候GPU就出现了。

GPU和CPU不一样的地方是它一次可以同时调成千上万个旋钮,原来CPU几年才能调完的活GPU几天就干完了(有兴趣的读者可以看附录3中关于GPU的技术描述)。GPU的出现,让神经网络可以更大,因而处理能力更强,从一个纯学术的研究项目变为有巨大商业价值的工具。

深度学习需要用GPU的主要有两类:模型训练和识别。前者不光要处理大量训练数据,还要不断地试验不同的模型和参数,因此运算量巨大,一个训练模型可能要成百上千个GPU来算。识别的计算量少很多,但是用户多(例如谷歌、Facebook的用户都以10亿计),所以总的运算量更大,通常是模型训练的几十倍甚至上百倍。由于几乎所有的深度学习都从英伟达买GPU,所以英伟达芯片一直供不应求,其股票从2015到2017年涨了10倍。

面对如此大的权力和利润,其他公司都心有不甘。首先是英特尔不甘心被摘下霸主桂冠,开始在CPU里集成更多的核心,2017年的XeonPhi(处理器)里面多达72个核。但CPU毕竟还要做许多其他事情,单论深度学习还是远不如同档次的GPU。先进微器件公司(AdvancedMicroDevice,AMD)发扬一贯的“宁做老二”的传统,在CPU上紧盯英特尔,在GPU上紧盯英伟达,永远走“功能类似,价格便宜”的路线。

其他几家互联网巨头也不想眼睁睁地看着英伟达控制着深度学习的命脉。谷歌就撸起袖子自己做了一款自用的TPU。TPU的设计思路是这样的:既然GPU通过牺牲通用性换取了在图形处理方面比CPU快15倍的性能,为什么不能进一步专注于只把神经网络需要的矩阵运算做好,进一步提高速度呢?所以TPU设计的第一个诀窍是比GPU更专注于神经网络里面计算量最大的矩阵计算,而不需要像GPU一样去顾及图形处理的许多需求。TPU的第二个诀窍是采用低精度的计算。图形与图像处理需要很高的精度(通常用32比特浮点精度),而用于识别的神经网络的参数并不需要很高的精度。

所以谷歌的第一款TPU就专门为识别设计,在运算上放弃32比特的浮点运算精度,全部采用8比特的整数精度。由于8比特的乘法器比32比特的简单4×4=16倍,所以在同等芯片面积上可以多放许多运算单元。谷歌的第一款TPU就有65000个乘加运算单元,而最快的GPU只有5300个单元。有兴趣的读者可以看附录3中对于CPU、GPU和TPU的详细技术分析和比较。

热门小说推荐
网游之龙王苍傲

网游之龙王苍傲

一个重生的天才,一段关于网游的传奇。他强大,装备技术和奇遇一个不缺。他仁慈,百花齐放比一枝独秀更能渲染这个精彩的世界。他残忍,龙之逆鳞绝不能触动。他聪明,智慧是一种力量。他虚拟的世界可以成为每个人的梦想舞台,打宝练级PK竞技等等组成了这个世界的节奏。正如足球运动是足球运动员不可缺少的部分一样,游戏,也是我们玩家的第二生命!你喜欢玩游戏吗?...

都市小世界

都市小世界

天降小世界,幸运的李青云不但得到了小世界,还得到了神尊传承,从此李青云走上了如果发展小世界的道路。...

龙行天下

龙行天下

少年富则国富!少年智则国智!少年强则国强!少年称王则国称王!...

修仙奶爸的妖孽人生

修仙奶爸的妖孽人生

小朋友,千万别惹我,我老爸超凶的!小娜扎。九天之下大境,皆为我界!孟浪淡淡道想要嫁给我,那得看我女儿喜不喜欢你!...

这个NPC太凶猛了

这个NPC太凶猛了

穿越到游戏中的魏晋,赫然发现自己竟然成了一名,只能沦为玩家经验值的底层NPC。想象到自己未来的处境,魏晋怒上心头,当即心一横,举起斧头就砍了玩家。爷不伺候了!只是,当他破罐子破摔,占山为王,准备自此逍遥自在时,却听到一则令他张目结舌的消息。我都落草为寇了,你告诉我这里是三国?PS前期发展势力,后期争霸,凭借横...

我在末日当领主

我在末日当领主

末日来临,丧尸横行,昔日的同伴变成恐怖的怪物,物资匮乏同类相残。林昊觉醒了异能,旁人避之不及的,在他眼里通通成了宝贝。叮,发现异变丧尸猫耳娘,是否契约?叮,发现进化期异变怪兽雷电蝠龙,是否契约?叮,发现觉醒异能人,是否契约?别问,问就是全都要!当别人还在争夺物资女人的时候,林昊已经左拥右抱,打下一片江山了。...

每日热搜小说推荐