台积电展示拼接更大、更快芯片的新技术

路透中文
24 Apr
更新版 1-<a href="https://laohu8.com/S/TSM">台积电</a>展示拼接更大、更快芯片的新技术

在第 5 和第 6 段中增加了亚利桑那网站计划的细节和引用的行政人员的话

Stephen Nellis/Max A. Cherney

路透加利福尼亚州圣克拉拉4月23日 - 台湾积体电路制造股份有限公司(Taiwan Semiconductor Manufacturing Co 2330.TW)周三发布了制造更快芯片的技术,并将这些芯片组装成餐盘大小 的封装,从而提高人工智能应用所需的性能。

该公司表示,其A14制造技术将于2028年问世,届时能生产出与今年投产的N2芯片相同功耗、速度快15%的处理器,或者与N2芯片相同速度、功耗低30%的处理器。

这家将 Nvidia NVDA.O 和 AMD(超威/超微) AMD.O 视作客户的全球最大合约制造商表示, 其即将推出的 "System on Wafer-X "将能够把至少 16 个大型计算芯片、内存芯片、快速光互连和新技术编织在一起,为芯片提供数千瓦的功率。

相比之下,Nvidia(Nvidia)目前的旗舰图形处理单元由两个大型芯片拼接而成,而将于 2027 年推出的 "鲁宾超 "图形处理器将由四个芯片拼接而成。

台积电表示,计划 在其位于亚利桑那州的芯片工厂附近建造两座工厂来开展这项工作,计划在该基地共建造六座芯片工厂、两座封装工厂和一座研发中心。

"副联席首席运营官兼高级副总裁凯文-张(Kevin Zhang)周三表示:"随着我们不断向亚利桑那州引入更先进的芯片,你需要不断努力提升这些芯片。

英特尔INTC.O正在努力拓展合约制造业务,以与台积电竞争,该公司将于下周宣布新的制造技术。去年,英特尔声称 (link),它将在制造全球最快芯片方面超越台积电。

对封装在一起的大规模人工智能芯片的需求使两家公司的战场从简单地制造快速芯片转向集成芯片--这是一项需要与客户密切合作的复杂任务。

"两家公司并驾齐驱。分析公司 TechInsights 的副董事长丹-胡奇森(Dan Hutcheson)说:"你不会因为它们在技术上领先而选择其中一家。"分析公司 TechInsights 的副主席丹-胡奇森(Dan Hutcheson)说:"你会因为不同的原因而选择其中之一。

客户服务、定价以及能获得多少晶圆分配,都可能影响公司决定选择哪家芯片制造商最合适。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10