中国信通院黄伟:预计到2027年国内AI手机、AI PC渗透率将分别超50%和80%

智通财经
27 Mar

智通财经APP获悉,中国信通院信息化与工业化融合研究所总工程师黄伟称,2024年是智能计算领域变革与突破的一年。互联方面,各层级性能与规模大幅提升,英伟达NVLink卡间互联速率4年提升3倍,节点间互联竞争激烈,超以太网技术成为新战场。芯片领域,GPGPU与DSA应用场景逐步融合,英伟达、AMD等厂商围绕新算法需求优化布局,谷歌TPU等DSA芯片加入通用模块,适用范围进一步扩大。此外,端侧大模型也迎来爆发式创新浪潮,手机和PC为代表的消费电子产品率先响应。预计到2027年,我国AI手机、AI PC渗透率将分别超50%和80%,激活消费需求并推动上游芯片、存储、传感器、电池等多维产业链升级,助力行业迈向新高度。

一、2024先进计算变革加速

先进计算领域是当前科技创新浪潮的重点,2024年总体保持稳步向上的良好态势,涌现出了一批创新性的成果,持续发挥着对经济社会高质量发展的重要支撑和推动作用。

产业方面,智能计算成为核心驱动力,AI服务器、AI手机、AI PC增长强劲,带动GPU和存储等上游产业复苏,推动全球数字化转型与软件市场规模扩张。算力总量快速增长,2024年全球算力达2207EFlops,其中我国占617EFlops,全球占比28%,增速达42%。智能算力主导地位显著,从2018年的7%提升至2024年的73%,并逐步向推理侧倾斜。技术层面,以智能计算为中心的体系化变革加速,通用与智能计算架构融合,异构算力突破,万卡/十万卡集群规模落地,量子计算与类脑神经模拟探索深化。生态方面,行业竞合态势持续演变,智算龙头企业通过研发芯片、完善开源生态和打造互联体系,降低对英伟达体系的依赖,通算x86阵营加速技术迭代,力图对抗ARM架构在服务器和PC市场的渗透。

二、智能计算众多创新成果涌现

2024年是智能计算领域变革与突破的一年,各方面创新成果涌现,为行业发展指明方向。

集群方面,万亿参数推动万卡时代到来,随着互联和存储技术进步,国际龙头企业的万卡/十万卡智算集群先后投入使用,万卡以上规模集群数量已达数十个,成为大模型竞争的关键支撑。互联方面,各层级性能与规模大幅提升,英伟达NVLink卡间互联速率4年提升3倍,节点间互联竞争激烈,超以太网技术成为新战场。软件栈方面,多路径发展并行,龙头企业加速全栈布局,芯片新势力推动开源编译器和算子库发展,科研院所探索统一“烟囱式”软件栈方法,提升AI芯片适配性能。

三、人工智能终端迎来元年

2024年,端侧大模型迎来爆发式创新浪潮,手机和PC为代表的消费电子产品率先响应。

技术上,AI终端需突破算力和功耗瓶颈,强化“软、硬、算、端、云”一体化整合,呈现四大创新路径:一是端云协同部署,大模型任务以云为主并向端侧渗透;二是软件系统级融合,操作系统集成AI大模型服务,成为智能交互入口;三是算力智能化升级,异构架构芯片结合算力与内存协同提升性能;四是全链路安全保障,构建可信执行环境和隐私防护机制,确保数据安全。产业上,端侧大模型落地成为AI终端市场增长引擎。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10