loading...
发表时间: 2024-03-25 10:05:11
少年时,曾研习 Geographic Information System,可惜学无所成,侥幸毕业。成年后,误打误撞进入传媒圈子,先后在印刷、电子、网络媒体打滚,略有小成。中年后,修毕信息科技硕士,眼界渐扩,决意投身初创企业,窥探不同科技领域。近年,积极钻研数据分析与数码策略,又涉足 Location Intelligence 开发项目;有时还会抽空执教鞭,既可向他人分享所学,亦可鞭策自己保持终身学习。
当今科技市场的焦点已不再是Google、苹果(Apple)等传统龙头,而是手握全球9成AI芯片供应的英伟达(NVIDIA)。执行长黄仁勋在GTC 2024大会上,发表新一代Blackwell架构GPU,AI训练速度比上代芯片快4倍、推理能力优30倍,能够运行兆级参数规模的大型语言模型,重新定义AI产业的天花板。看似优势占尽的NVIDIA是否可以一直顺风顺水呢?究竟在一片好景背后暗藏着什么隐忧呢?
复办实体GTC大会受全球注目
2009年,NVIDIA举办首届GPU Technology Conference(GTC)大会,参加人数顶多约1,500人;2020年新冠疫情爆发,移师至网上举行;睽违4年后,该公司砸下重金复办实体GTC大会,2024年3月18日在美国圣荷西SAP中心举行,全场2万个座位皆无虚席,英伟达官方YouTube频道的直播更有逾6万人收看。
黄仁勋在GTC展台上,左手拿着2023年全球疯狂抢购的Hopper GPU,右手则拿着体积更大、效能更强的新一代AI芯片Blackwell GPU。这款以首位入选美国国家科学院的黑人科学家戴维·布莱克维尔(David Blackwell)命名的GPU共有3个版本,分别为单颗芯片B100与B200、以及组合型超级AI芯片GB200。
黄仁勋透露,Blackwell架构芯片(左)定价介乎3万至4万美元(约23.4万至31.2万港元),即是跟上代Hopper(右)定价区间相若。(图片来源:翻摄英伟达官方YouTube影片)
GB200推理能力比前作高30倍
使用2颗Blackwell架构、台积电4纳米制程的B200 GPU,再加上1颗ARM架构的Grace CPU,合组成GB200。在基于GPT-3模型的基准检验中,它的性能是前一代芯片H100的7倍、AI训练速度快上4倍、AI推理能力高出30倍,惟能源消耗却低25倍。
GB200是这次的旗舰级产品,内含1颗Grace CPU和2颗B200 GPU,将于2024年稍晚供货,Google、微软和亚马逊均已下单订购。(图片来源:翻摄英伟达官方YouTube影片)
Blackwell GPU性能是Hopper的7倍,训练速度提升4倍,推论速度更加快上30倍。(图片来源:翻摄英伟达官方YouTube影片)
为迎合数据中心的需要,NVIDIA推出以GB200为核心的GB200 NVL72机架系统,把72颗Blackwell GPU与36颗Grace CPU集成到一组巨大的液冷机架,足以运转规模达27兆组参数的大型语言模型。其特殊的液冷设计具备1300kW强大散热能力,水冷液以每秒循环2公升的速度,可将滚烫的AI服务器降温至摄氏45度。
瑞穗证券分析师乔丹·克莱因(Jordan Klein)表示,当NVIDIA不断强调B100用于AI推论的潜力后,外界担心同样以AI推论能力作卖点的AMD MI300可能会变成“路人甲”,逐渐被市场忽略。半导体分析师陆行之更直言,假如GB200卖得很好,那么AMD与英特尔(Intel)的AI芯片“就不用玩了”。
英伟达推AI代工欲做AI界台积电
当市场将NVIDIA视为AI芯片霸主之际,黄仁勋反而高喊英伟达不是AI硬件公司,而是“AI平台企业”。他以台积电作比喻:“大家带着构想去找台积电,台积电把芯片制造出来;我们也一样,这就是‘AI代工’。”黄仁勋的目标是,把NVIDIA变成AI界的台积电。
有鉴于此,NVIDIA推出为数十种企业而设的生成式AI微服务。例如面向医疗产业,英伟达推出逾20项医疗专用AI微服务,并更新BioNeMo模型以强化AI辅助药物开发;针对制造业,NVIDIA则发表人形机械人的通用基础模型“GR00T”,让具备自然语言理解能力的机械人,透过观察和模仿,快速学习各项生产技能,进而融入工厂环境,提升生产线产能。
黄仁勋宣布,即将推出人形机械人计划“Project GR00T”,以推动AI机械人的产业发展。(图片来源:翻摄英伟达官方YouTube影片)
政府管制芯片出口损害英伟达收入
NVIDIA的业务发展看似形势大好,是否真的毫无逆风?答案当然不是。现时各国监管机关担忧AI对社会、经济、以至国家安全构成风险,正寻求技术规管。自2023年起,美国政府限制高效能AI芯片和高阶芯片制造设备出口给部分中国企业,英伟达A100和H100芯片也被纳入管制之列,损害了NVIDIA第三季收入。该公司表示,Blackwell GPU同样会受到美国出口管制的约束。
然而,英伟达的最大隐忧不是来自美国政府,而是自己的客户。科技巨头希望自家的AI服务器可以建基于自己的解决方案,而不是长期依靠外部单一供货商。例如云端平台3大巨头,亚马逊(Amazon)自行研发Inferentia与Trainium芯片,分别用于AI模型推论与训练;微软(Microsoft)亦推出自研芯片Maia 100和Colbert 100应战;Google则早已手握自家开发的TPU,用作AI云端运算。
NVIDIA大客户争相自研AI芯片
近年,云端3巨头不断增加对IT基建的投资。美国银行(BofA)调高Amazon、Microsoft、Google在2023年云端支出总额至840亿美元(约6,552亿港元),成长率为14%;又预测2024年支出总额将攀升至1,160亿美元(约9,048亿港元),成长率高达22%。
此外,依靠NVIDIA GPU起家的Open AI,执行长山姆·奥特曼(Sam Altman)甚至想与阿联酋政府、软银集团合作,集资7兆美元(约54.6兆港元)自建半导体供应链。这些科技巨头有钱、有技术,一旦下决心要脱离对单一厂商的依赖,绝对是NVIDIA值得惧怕的对手!
《经济通》所刊的署名及/或不署名文章,相关内容属作者个人意见,并不代表《经济通》立场,《经济通》所扮演的角色是提供一个自由言论平台。