NVIDIA GB300震撼发布 联想(00992)、超微等下半年上市

智通财经
19 Mar

智通财经APP获悉,3月19日,NVIDIA英伟达(NVDA.US)今日宣布推出NVIDIA Blackwell AI工厂平台的新一代产品 —— NVIDIA Blackwell Ultra,开启了AI推理新时代。

NVIDIA Blackwell Ultra 提升了训练和测试时扩展推理能力(test-time scaling inference), 即通过在推理过程中增加计算量来提升准确率的技术,以帮助全球各地的企业加速AI推理、代理式AI及物理AI等应用的开发与部署。

基于一年前推出的突破性的Blackwell架构,Blackwell Ultra包括 NVIDIA GB300 NVL72机架级解决方案和NVIDIA HGX B300 NVL16系统。GB300 NVL72的AI性能是NVIDIA GB200 NVL72的1.5倍,这使得建造AI 工厂的收入机会与基于 NVIDIA Hopper构建的系统相比增加了50倍。

“人工智能实现了巨大的飞跃 —— 推理和代理式AI对计算性能的需求呈数量级增长,”NVIDIA创始人兼首席执行官黄仁勋表示。“我们为这一时刻设计了Blackwell Ultra——它是一款单一且多功能的平台,能够轻松高效地完成预训练、后训练以及推理型AI推理任务。”

NVIDIA GB300 NVL72在一个机架设计中连接了72个Blackwell Ultra GPU和36个基于Arm Neoverse架构的 NVIDIA Grace CPU,整体表现如同一个巨型GPU,专为测试时扩展而打造。通过GB300 NVL72,AI模型能够利用平台增强的计算能力探索多种解决方案,将复杂请求分解为多个步骤,从而生成更高质量的响应。

GB300 NVL72预计还将通过NVIDIA DGX Cloud 提供,该平台是一个端到端的全托管 AI 平台,部署于领先的云服务上,通过软件、服务和 AI 专业知识为不断发展的工作负载优化性能。配备DGX GB300系统的NVIDIA DGX SuperPOD采用 GB300 NVL72 机架设计,为客户提供了一个交钥匙式 AI 工厂。

NVIDIA HGX B300 NVL16相比Hopper代产品,LLM 推理速度提速了11倍,计算性能提升了7倍,内存容量扩大了4倍,可为最复杂的工作负载(如 AI 推理)提供突破性性能。

此外,Blackwell Ultra平台特别适用于以下应用:

代理式AI, 利用复杂推理和迭代规划自主解决复杂的多步骤问题。 AI智能体系统超越了简单的指令执行。他们能够推理、规划并采取行动以实现特定目标。

物理 AI,使企业能够实时生成合成的、具有高度真实感的视频,用于大规模训练机器人和自动驾驶汽车等应用。

NVIDIA表示,联想(00992)、戴尔和超微等合作伙伴预计将从2025年下半年开始推出基于Blackwell Ultra的各类服务器。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10