香港脉搏www.etnetchina.com.cn
 理财/管理智城物语
打印logo打印本文章电邮logo字体:
分享:
英伟达吃掉9成AI利润,科技巨头寻找替代方案
方展策
作者:方展策评论评论:点击率点击率:

发表时间: 2023-09-04 11:58:36

作者介绍

少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。

   半导体龙头英伟达(NVIDIA)刚于8月底发表财报,表现超出华尔街预期,刺激股价飙升,不但令公司市值稳站在1兆美元(约7.8兆港元)以上,更带动美国科技股整体上涨。如此亮眼的业绩,不禁让人怀疑该公司在AI芯片市场上是否还有对手。乘着生成式AI浪潮而登顶的NVIDIA,下一步将如何巩固其AI芯片霸业?未来又将会面对什么潜在威胁呢?


全球抢购GPU令英伟达收入暴涨


   NVIDIA在2024年第二季收入跃升到135.1亿美元(约1,053.78亿港元),超出市场预期的112.2亿美元;公司毛利率上升至71.2%,超出预期的69%;营业利润则为77.7亿美元(约606.06亿港元),年增率达到155%,净利年增率更高达422%。


   同时,NVIDIA在财报中提出乐观的财测,预计第三季收入可望达到160亿美元(约1,248亿港元),较2022年同期暴涨170%;净利有望激增至61.9亿美元(约482.82亿港元),远超2022年同期的6.56亿美元(约51.17亿港元);公司毛利率则预计为72%左右。


   如此骄人的财报表现,突显NVIDIA图像处理器(Graphics Processing Unit,GPU)在生成式AI浪潮中有着举足轻重的地位。英伟达出品的A100、H100 GPU芯片,现已被科技业者视为开发AI大型语言模型的首选装备。当日OpenAI对GPT-4模型展开数据训练,就动用了约25,000颗A100芯片。


   除各大科技巨头如Google、亚马逊(Amazon)、Meta外,英国、沙特阿拉伯、阿联酋都大手抢购A100、H100芯片,导致NVIDIA GPU供应非常短缺。于是,英伟达计划将H100芯片产能提高至少3倍,预计出货量从2023年的50万颗增至2024年的150至200万颗。


目前全球最抢手的AI芯片,是NVIDIA出品的H100 GPU,售价高达4万美元(约31.2万港元)。(图片来源:NVIDIA官网)


NVIDIA的AI运算产品线非常完整,除单一GPU芯片外,还有内置多颗GPU的超级计算机可供选购。(图片来源:NVIDIA官网)


英伟达数据中心营收未来仍会攀升


   可是,有投资者担心,当下NVIDIA形势大好,可能因为企业被近期ChatGPT热潮冲昏头脑,所以把AI芯片需求往前挪。半导体研究集团SemiAnalysis首席分析师巴特尔(Dylan Patel)指出,很多科技公司即使尚未确定如何运用NVIDIA GPU来开发AI产品赚钱,但为免错失良机,不惜砸下重金进行采购;到了某一天,生成式AI终于出现了可持续获利的用途,届时大部分公司可能会停止再投资,只剩下能够真正获利的公司会继续加码投资。


   投资研究机构Morningstar Research分析师布赖恩·科莱洛(Brian Colello)对此看法不以为然。他认为,现时根本找不到GPU订单是一次性购买、或是将支出挪前的证据,所以预估NVIDIA在2024会计年度从数据中心市场获取的收入,可望达到410亿美元(约3,198亿港元),远多于2023年的150亿美元(约1,170亿港元)。


   科莱洛进一步预测,未来几年英伟达数据中心营收仍会持续攀升,有望从2025会计年度的600亿美元(约4,680亿港元),增长至2028年度的1,000亿美元(约7,800亿港元)。他认为,未来几季每颗出厂的英伟达GPU芯片都会被抢购一空。


全球数据中心转向加速运算架构


   NVIDIA执行长黄仁勋(Jensen Huang)豪言:“一个新的运算时代已经展开,全世界的公司正从通用型计算机运算,转型为加速运算与生成式AI。”他认为,为迎合生成式AI的蓬勃发展,全球数据中心正逐渐从以中央处理器(CPU)为基础的传统运算架构,转向以GPU为核心的加速运算架构。


NewEdge Wealth基金经理人本·埃蒙斯(Ben Emons)认为,左右美国利率政策走向的人不再是联储局主席鲍威尔,而是NVIDIA执行长黄仁勋,足证英伟达已对美国经济有着极大影响力。(图片来源:NVIDIA官网)


   换言之,数据中心可以少买一些超威(AMD)、英特尔(Intel)的CPU,转为多买一些NVIDIA GPU,以建构生成式AI所需的加速运算平台。德意志银行分析师罗斯·西穆尔(Ross Seymore)评估,NVIDIA数据中心收入将会是AMD、Intel加总起来的两倍以上,凸显英伟达GPU对数据中心是何等重要。


   此外,黄仁勋又指出,上至从法律合约、下至营销文案,均可利用生成式AI产制出来,未来各行各业将会使用愈来愈多由AI生成的内容。他认为,数据中心架构转型、产业需求AI生成内容两大趋势,已持续了大概一个季度,不会就此结束。不过,黄氏却拒绝评论,2024年以后生成式AI热潮能否继续保持热度。


黄仁勋与服务器厂建立紧密关系


   黄仁勋明白,NVIDIA不能只是坐享AI热潮红利而什么也不做。为求巩固AI芯片霸业,黄仁勋早已作出3大部署。首先,他积极拉拢服务器厂商,以建立更紧密关系。2023年5月,他旋风式访问中国台湾,频繁地出现在各家服务器厂商的活动上,就是要稳固供应链桩脚,为其AI芯片布局做好准备。


   大家要知道,AI模型运算能否畅行无阻,软硬件整合正是个中关键。目前全球大型企业都倾向拥有属于自己的AI模型,这样可能需要为其度身订造的专用AI服务器,才可以实现最顺畅的运算表现。就算是Microsoft Azure、Amazon AWS和Google Cloud等云端服务商,面对不同产业客户的业务需要,对AI服务器客制化的需求亦会有所增加。


Amazon旗下云端服务供货商AWS的数据中心,现已大量采用NVIDIA GPU来提供加速运算服务。(图片来源:Amazon官方网志)


   倘若要做到完全客制化,就需要芯片、系统、软件公司等整个生态系厂商互相配合。如此一来,服务器厂商所扮演的整合性角色将会变得愈加重要。因此,英伟达只要跟服务器厂商能够保持良好的紧密关系,便能够按照客户需求制造出多样化的产品——无论是数据中心适用的大规模运算架构,还是企业内部需要用到的单一AI服务器,英伟达都可以全面提供。这正是NVIDIA能够抢下AI服务器市场9成份额的主要原因之一。


善用CUDA固守市场防对手进入


   其次,黄仁勋利用研发多年的编程工具平台《CUDA》,作为NVIDIA在AI领域的“护城河”。软件工程师使用《CUDA》开发AI应用软件时,可以跳过撰写低阶编程语法的步骤,直接采用高阶语法诸如《C++》或《Java》等来编写适用于NVIDIA GPU的算法,以实现最佳的运算效能。


《CUDA》平台提供大量针对GPU架构深度优化的函数库,可让软件工程师直接使用,有助简化AI软件开发流程。(图片来源:NVIDIA官网)


   几乎所有采用NVIDIA GPU的企业,皆培育了一群深谙《CUDA》架构的工程师。AI软件开发商如要转用非英伟达产品,就要重新训练员工来适应新架构,故此绝大部分公司都不会轻易作出改变。假如竞争者无法突破《CUDA》这条护城河,根本不能攻入此市场。


   有鉴于此,英伟达主要对手AMD已推出自家的编程工具软件《ROCm》,务求跟《CUDA》一较高下。2023年8月,AMD宣布收购法国AI软件商Mipsology,以进一步强化《ROCm》。有分析师指出,此举可能会迫使NVIDIA加快提升和改善《CUDA》的功能,以提高用户黏着度。


跨足云端市场扩大AI业务版图


   再者,黄仁勋尝试跨足云端服务市场,以扩大其AI业务版图。2023年3月,英伟达宣布推出云端服务“DGX Cloud”,让无法负担高昂NVIDIA芯片价格的小公司,可以在云端上享用GPU的强大运算力。DGX Cloud使用NVIDIA DGX超级计算机提供云端运算,每台均配备8颗H100或A100 芯片和640GB内存。


   自此以后,NVIDIA从只造硬件的AI芯片生产商,摇身一变为提供云端运算的服务供货商。对AI初创来说,AI运算力是非常昂贵和稀有的资源;透过DGX Cloud,初创便可用较低成本来研发和部署AI应用。在当下运算力不足的AI发展期,NVIDIA可以藉此吸纳更多初创加入其AI运算阵营,壮大《CUDA》生态圈。


   此举又可让英伟达抢攻气象模拟、地球模拟、甚至国家级精密运算等高端AI运算市场,开拓新客源。黄仁勋曾表示,他最喜爱的AI应用场景不是在科技产业,而是在研发新药和分析气候变迁,更认为日后AI应用将会延伸至农业、制造业、以至制药业等。


AI模型开源引发自定义芯片浪潮


   尽管NVIDIA风头声势一时无两,市场上看似没有具份量的竞争对手,但未来仍需面对2大挑战。首先,自ChatGPT爆红后,科技界对AI模型应开放原始码的呼声愈来愈高,以免生成式AI的发展被OpenAI、Google等大企业垄断。Meta于2023年2月发布开源AI模型LLaMA,迄今已被申请使用逾10万次,代表着开源已作为AI模型发展的主流趋势。


   当中小企业可以运用开源模型来开发自家的AI模型后,就能够依据某个开源模型版本,按照自身业务需要,制作自定义设计的特殊应用芯片(Application Specific Integrated Circuit,ASIC)。ASIC芯片只需达成单一而明确的任务,架构设计较简单,制造成本也较便宜,让企业可以自行建构更具成本效益的AI运算平台。


   如今AI服务器的生产成本,NVIDIA GPU已占去当中近九成。对服务器厂商来说,GPU占成本比重过高,产品毛利自然不好。因此,当AI模型开源与ASIC芯片方案兴起后,服务器厂商可能会积极寻找NVIDIA以外的AI芯片供应来源,以达成更佳的成本控制。


在Computex 2023展览会上,服务器厂商Supermicro总裁暨执行长梁见后(左)邀请了NVIDIA执行长黄仁勋(右),作为主题演讲的嘉宾。(图片来源:NVIDIA官网)


英伟达陷入与云端大客户竞争局面


   其次,英伟达跨入云端市场,虽然有助拓展业务,但却会跟客户形成互相竞争的局面,可能会加速云端服务商寻求替代方案。现时NVIDIA先以高价把GPU卖给云端服务商,跟着再租用云端服务商的硬件平台来提供DGX Cloud赚钱。于是,前台、后台两边钱都由英伟达赚到尽,AI利润几乎全都进入该公司的口袋。


   NVIDIA推广DGX Cloud,势必跟微软、亚马逊、Google三大客户争抢云端市场份额,令双方关系变得紧张。这样将会促使这些云端巨头多采购一些AMD GPU,或加快开发自家AI芯片的脚步。亚马逊现正埋首研发新一代AI芯片Inentia和Trainium,为客户提供NVIDIA GPU的替代方案;Google基于自家开发的张量处理器(Tensor Processing Unit,TPU),推出Cloud TPU云端运算服务,可用作训练AI模型。


NVIDIA利用其DGX超级计算机建构DGX Cloud云端平台,为企业提供云端AI运算服务,明显与AWS、Azure等云端服务商的客户重迭。(图片来源:NVIDIA官网)


Google TPU属于自定义设计的ASIC芯片,适合用来训练大型语言模型。(图片来源:Google Cloud官网)


   市调机构Gartner预测,2023年全球AI半导体收入将较2022年增长20.9%,达到534亿美元(约4,165亿港元);之后几年,估计收入仍可保持两位数成长,2024年的增长率为25.6%,达到671亿美元(约5,234亿港元);及至2027年,AI芯片收入将倍增到1,194亿美元(约9,313亿港元),较2023年市场规模高出一倍以上。


   没有一家公司愿意看到,如此庞大的市场被英伟达一家垄断。为求摆脱NVIDIA GPU和降低成本,愈来愈多企业将会考虑开发自家的ASIC芯片。Gartner预估,未来自定义设计的AI芯片部署量将会增加,这样可能会取代当前的主流芯片架构。


   《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。

分享:
返回智城物语
上传图片
仅支持JPG、GIF、PNG图片文件,且文件小于5M
 
评论只代表会员个人观点,不代表经济通立场 
登录 后发表评论,立即 注册 加入会员。
 (点击用户名可以查看该用户所有评论)  只看作者评论  查看全部评论:↑顺序 ↓倒序
  • 暂无读者评论!
评论只代表会员个人观点,不代表经济通观点
登录 后回复评论,立即 注册 加入会员。
发表评论 查看全部评论: ↑顺序  ↓倒序
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
  • 财金博客
  • 理财/管理
  • 健康人生

  • 时尚艺术
  • 吃喝玩乐
  • 全部
more on Column 
新  一个月内新增栏目