香港脉搏www.etnetchina.com.cn
 理财/管理智城物语
打印logo打印本文章电邮logo字体:
分享:
AI竞赛隐形赢家!英伟达稳坐AI芯片龙头,靠软件取胜!
方展策
作者:方展策评论评论:点击率点击率:

发表时间: 2023-06-05 17:00:46

作者介绍

少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。

   在生成式AI热潮下,最大得益者是谁呢?答案不是OpenAI与Microsoft,也不是Google,而是AI芯片生产商英伟达(NVIDIA),年初以来该公司股价已暴涨逾174%。于是不少公司涌入AI芯片市场,试图分一杯羹,当中以科技巨头Google最为进取,推出号称效能比NVIDIA更强的AI芯片,但却似乎难以撼动对方——英伟达市值在5月底曾突破1兆美元关口,一度成为史上第7家进入兆元级俱乐部的大企业!究竟NVIDIA是如何建立铁桶般稳固的AI芯片霸业呢?


ChatGPT运算靠NVIDIA GPU


   OpenAI为了训练ChatGPT背后的GPT大型语言模型,豪掷1亿美元(约7.8亿港元),采购10,000枚NVIDIA A100图像处理器(Graphics Processing Unit,GPU)来进行运算。英伟达创办人兼执行长黄仁勋表示,世上首台用于AI运算、内含NVIDIA GPU的超级计算机DGX,正是由他亲手交给OpenAI。


黄仁勋在世上第一部DGX超级计算机上签名后,交亲手交给OpenAI的负责人。(图片来源:翻摄NVIDIA官方YouTube影片)


   黄仁勋坦言,当初没有想过GPU可以应用于AI深度学习(Deep Learning)之上。NVIDIA创立于1993年,以GPU作主力产品,聚焦于游戏图形运算——不少计算机游戏玩家为求享受更佳的3D图像显示效果,不惜大破悭囊购入NVIDIA芯片显示适配器,当年笔者也因此而贡献了不少金钱给英伟达。


   后来,有AI研究人员发现,GPU支持“平行运算”(Parallel Computing)的特性,原来非常适合用于需要计算大量数据的AI模型建立。所谓“平行运算”,意指同时使用多种运算资源来执行计算机指令,以解决运算问题;其基础概念是将需运算的内容分割成小部分,之后以并行方式来加速运算。


AI教父赞扬GPU的AI运算潜能


   OpenAI联合创办人暨首席科学家伊尔亚·苏茨克维(Ilya Sutskever)称,初时不知道GPU可以用在哪里,之后才发现大型视觉数据库“ImageNet”很适合用GPU来运算,更让数据训练达到前所未有的规模。苏茨克维尔的老师、有“AI教父”之称的杰弗里·辛顿(Geoffrey Hinton)更扬言:“GPU将会是机器学习(Machine Learning)的未来。”


“AI教父”杰弗里·辛顿(右)与两名爱徒亚历克斯·克里舍夫斯基(中)、伊尔亚·苏茨克维(左)均认为,GPU非常适合用于AI运算。(图片来源:多伦多大学官网)


   2012年,辛顿的另一高足亚历克斯·克里舍夫斯基(Alex Krishevsky),利用2张NVIDIA显示适配器与120万张图片来建立AI模型,错误率从一年前的25%大幅下降至15%,获得飞跃式进步。如此成果除令到克里舍夫斯基在学术界打响名堂外,亦激励了Google、微软(Microsoft)、以及亚马逊(Amazon)等争相进入AI领域。


   随着AI研究开始变得兴旺,市场对AI芯片的需求自然大增。看到此商机者又岂止黄仁勋一人呢?当年有不少初创公司摩拳擦掌,准备研发GPU,抢攻AI运算市场。NVIDIA之所以能够突围而出,全赖黄仁勋敢于作出一个不被外界看好的重大决定——研发《CUDA》(Compute Unified Device Architecture)。


当日黄仁勋决定大举投资开发《CUDA》时,曾被不少投资者和分析师看衰,最终证明他横眉冷对千夫指之决定是正确的,造就了今日NVIDIA的AI芯片霸业。(图片来源:NVIDIA官网)


研发CUDA造就英伟达铁桶江山


   《CUDA》是一个为编程人员而设的开发工具平台,基于《CUDA》编写的程序可以让NVIDIA GPU进行图像处理以外的运算,而AI运算当然是首选之列。AI工程师在《CUDA》上进行编程,不用再编写低阶程序语法,可以直接运用C++或Java等高阶语法来撰写运行于GPU的算法,轻松解决平行运算中复杂的技术问题;加上NVIDIA大力投放资源来改良《CUDA》,让它跟着每一代GPU发展不断优化,最终成为AI开发上必不可少的底层软件。


   目前全球逾3,000家的AI初创企业,大部分都建基于《CUDA》平台上进行研发,2022年《CUDA》下载量更高达2,500万次。换言之,NVIDIA的《CUDA》就好像苹果(Apple)的《iOS》操作系统,扎根于底层软件,逐渐发展成庞大的软件生态圈,让AI工程师离不开《CUDA》,形成后来者难以攻入的防御壁垒。


   然而,当竞争对手换作是财雄势大的Google,NVIDIA又能否抵御呢?自2016年起,Google便着手开发适用于AI运算的“张量处理器”(Tensor Processing Unit,TPU),把它用于公司内部逾90%的AI模型训练工作;自2018年起,Google更将TPU提供给第三方厂商使用。


Google TPU挑战NVIDIA GPU


   Google于2023年4月发表的论文阐述,如何用自家研发的光纤交换器串联逾4,000枚第四代芯片“TPU v4”,合组成AI超级计算机。测试结果显示,TPU v4超级计算机的指令周期比NVIDIA A100芯片驱动的同类型系统快上1.2至1.7倍,惟耗电量却减少1.3至1.9倍。


   除积极部署TPU外,Google也着手于重组公司内部架构,务求将更多人力资源调拨到AI研发上。开发语音助理Google Assistant的部门已将Bard列为优先发展项目,随后Google更委派商务部门副总裁佩尤什·兰詹(Peeyush Ranjan)出任该部门主管,可见Bard搭配TPU的发展方向之一是语音聊天应用。


   可是,外界认为Google的连番举措,根本难以动摇NVIDIA的AI芯片龙头地位。究其原委,NVIDIA的AI芯片技术仍是遥遥领先于对手。在Google的论文中,只将NVIDIA上代芯片A100列作TPU v4的比较对象,但目前英伟达的主打产品却是新一代的H100。这款新芯片采用更先进的台积电4纳米制程,指令周期是A100的4倍,故此效能大幅抛离TPU v4。


Google于2021年推出TPU v4,宣称运算效能是NVIDIA A100的1.7倍。但NVIDIA最新AI芯片H100的效能,却是A100的4倍,反过来说,也就是TPU v4的2倍以上。(图片来源:Google官方网志)


黄仁勋高呼CPU摩尔定律已死


   再者,NVIDIA很早进入AI芯片市场,大部分AI公司已惯用其软硬件产品来开发和训练AI模型。因此,科技大厂如想在AI竞赛中强化本身实力,都倾向抢购NVIDIA芯片。市调机构TrendForce评估,NVIDIA GPU现已成为AI服务器的主流配置,市占率上看70%。另一国际市调机构Gartner分析师奇拉格·迪凯特(Chirag Dekate)指出,英伟达不但是一家GPU运算公司,更是一家AI超级运算公司,当下NVIDIA已成为AI的代名词。


在NVIDIA GTC 2023大会上,OpenAI首席科学家伊尔亚·苏茨克维(右)与黄仁勋对谈时表示,GPU是训练GPT模型的关键环节。(图片来源:NVIDIA官网)


   尽管如此,NVIDIA却不敢怠慢,反而加快版图扩张的脚步。2023年5月,黄仁勋在台北国际计算机展Computex上发表主题演说,扬言过去30年间驱动计算机高速发展的摩尔定律(Moore's law),现已走到尽头了。根据英特尔(Intel)提出的摩尔定律,因制程技术提升,中央处理器(Central Processing Unit,CPU)上可容纳的晶体管密度和运算效能,每隔18至24个月便会增加一倍。一直以来,此定律都是半导体制程技术推进速度的遵循依据。


黄仁勋在Computex 2023计算机展发表主题演讲,强调过去5年GPU效能已提升1,000倍,完全打破了摩尔定律!(图片来源:翻摄NVIDIA官方YouTube影片)


专为游戏玩家而设的NVIDIA GeForce RTX 40系列GPU,支持DLSS 3人工智能绘图技术,可运用AI创造额外的高质画面。(图片来源:NVIDIA官网)


   黄仁勋指出,随着芯片面积不断缩小,摩尔定律将面临到物理极限;而水涨船高的先进制程定价,也使CPU在相同成本下每五年获得10倍效能提升的定律,难以持续下去,致使CPU不能再像昔日般飞快升级。他直言,如要解决CPU发展瓶颈所造成的问题,就需要有新的运算解决方案——利用GPU协助CPU来加速运算,以加快计算机系统的运行速度。


   黄氏言下之意,是要以GPU取代CPU的主导角色,推进整个科技产业继续向前迈进。他宣称,过去5年NVIDIA GPU的效能已暴增1,000倍,比起摩尔定律下CPU约2年递升1倍更为快速。


搭载H100 GPU的AI服务器定价高昂,预计售价为4万美元(约31.2万港元),惟黄仁勋解释指,NVIDIA AI服务器拥有高运算力和低功耗的特点,不但更适合用于生成式AI的训练任务,还可帮助企业大幅节省电力开支。(图片来源:翻摄NVIDIA官方YouTube影片)


NVIDIA全面抢攻数据中心市场


   AI运算要依靠数据中心的服务器,而黄仁勋就高喊:“数据中心就是计算机”(Data center is the computer),并强调NVIDIA将以此为发展重心,可见英伟达将全面抢攻数据中心市场。目前全球数据中心的运算仍是Intel CPU的天下,但生成式AI的出现,却为NVIDIA GPU带来变天的机会。


   随着生成式AI的使用量日益增加,数据中心需要计算的数据量也日趋庞大。当CPU技术发展停滞不前,数据中心营运者为求有更高速的运算表现,自然会转投GPU的怀抱。瑞银(UBS)预测,在1至2年内,由AI催生的GPU需求将增加到100亿至150亿美元(约780亿至1,170亿港元),而NVIDIA从数据中心获得的年度收入可望倍增。


   黄仁勋于2023年5月底宣布,新一代AI超级计算机DGX GH200已获Microsoft、Google Cloud、以及Meta采用,正好印证了此趋势。瑞穗银行(Mizuho)分析师乔丹·克莱恩(Jordan Klein)指出,Intel CPU的服务器市场份额正逐渐流失给GPU,而英特尔在AI竞赛中明显处于劣势。


专为生成式AI而设的NVIDIA超级计算机DGX GH200,将256个Grace Hopper超级芯片串连起来,能够将其作为单一GPU使用,并内置144 TB庞大内存,已获Google Cloud、Meta与微软率先采用。(图片来源:翻摄NVIDIA官方YouTube影片)


   至于超威(AMD),是目前市场上除NVIDIA以外另一家真正的GPU生产商,同时又兼具CPU制造能力,故此其竞争优势比Intel为佳,惟要追上NVIDIA依然有漫长的路要走。由是观之,在AI芯片市场上,如今英伟达已是难觅对手;在这个生成式AI盛世下,该公司更将迎来巨大的成长动能,让其铁桶江山变得更加稳固!

分享:
返回智城物语
上传图片
仅支持JPG、GIF、PNG图片文件,且文件小于5M
 
评论只代表会员个人观点,不代表经济通立场 
登录 后发表评论,立即 注册 加入会员。
 (点击用户名可以查看该用户所有评论)  只看作者评论  查看全部评论:↑顺序 ↓倒序
  • 暂无读者评论!
评论只代表会员个人观点,不代表经济通观点
登录 后回复评论,立即 注册 加入会员。
发表评论 查看全部评论: ↑顺序  ↓倒序
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
more on Column 
新  一个月内新增栏目