定制ASIC芯片崛起,英伟达是否还能独占AI市场?

老虎资讯综合
19 Dec 2024

超大规模数据中心运营商正在寻求通过ASIC芯片降低AI数据中心建设成本。

随着云计算公司和其他公司开始为人工智能处理问题寻找低成本解决方案,未来几年,英伟达公司可能会开始看到其人工智能图形处理器面临来自定制芯片的竞争。

本月,在博通公司( AVGO) 和 Marvell Technology Inc. (MRVL)召开财报电话会议让华尔街重新认识到这个潜在的机会。 两家公司都谈到了其定制 ASIC(专用集成电路)芯片的巨大潜在机会,并指出了其超大规模客户的未来计划。

ASIC自20世纪60年代就已出现,是一种专门设计用于特定功能的半导体,与通用处理器相比更高效。从技术上讲,GPU 最初是为渲染图形而设计的专用芯片,但 ASIC 可以更加专业,因此在执行非常具体的任务时速度更快。2017年,Susquehanna Financial Group 分析师 Chris Rolland在一份报告中写道,他相信 ASIC 可能是 AI 竞赛的长期赢家。

Tirias Research的首席分析师Kevin Krewell表示,虽然英伟达的GPU因其更易于编程在先进AI开发中占据优势,但超大规模客户倾向于选择较低的总拥有成本的定制XPU ASIC芯片。博通首席执行官陈福阳(Hok Tan)在最近的财报电话会议中表示,其三大超大规模客户计划部署由100万个定制XPU集群,并采用单一的开放式以太网网络架构,这标志着体系结构的重大变革。

与此相比,英伟达此前更青睐更昂贵的InfiniBand网络架构,但近期也开始支持AI网络的以太网解决方案。

博通预计,其网络芯片在AI芯片总含量的比例将从目前的5%-10%增加到15%-20%。更令人瞩目的是,博通预测其AI相关市场规模到2027年将达到600亿至900亿美元,尤其是三大客户(据分析是谷歌、Meta和TikTok母公司字节跳动)的需求驱动。

12 月初,Marvell 宣布与亚马逊公司 (Amazon.com Inc.) 签订了一份为期五年的协议。为其云计算业务AWS提供芯片,其中包括定制AI芯片。

Marvell预计其AI业务收入将从2024财年的5.5亿美元增长至2026财年的25亿美元。Marvell首席执行官Mark Murphy表示,

Marvell 等规模庞大的公司拥有知识产权、产品规划和技术能力,能够真正实现这些AI定制芯片的量产。

谷歌的Tensor处理器也是定制ASIC芯片的典型案例。

随着博通和Marvell在AI芯片领域的崛起,投资者对英伟达的市场地位产生了些许担忧。过去一个月,英伟达股价下跌约11%,进入调整区间,而博通上涨了45%,Marvell则上涨约26%。尽管如此,博通和Marvell的其他业务板块增长速度相对较慢。

当然,如果数据中心的建设回报看起来疲软,客户可能会放缓扩张步伐。但目前来看,博通和Marvell似乎都迎来了“英伟达时刻”。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10