富士通拟开发 1.4 纳米 AI 芯片,联合 Rapidus 实现日本本土制造

fmt

富士通开发AI服务器定制芯片:技术布局、合作生态与日本本土化战略分析

核心信息提炼

  1. 技术方向:富士通计划开发用于AI服务器的定制NPU(神经网络处理器),与自研CPU整合封装,目标实现“日本本土化研发与生产”。
  2. 工艺节点:采用Rapidus提供的1.4nm最先进工艺(当前全球主流量产工艺为3nm,1.4nm或为Rapidus技术储备/未来量产目标)。
  3. 资金支持:项目申请日本新能源产业技术综合开发机构(NEDO)支持,初期研发成本580亿日元(约25.11亿元人民币),NEDO承担三分之二费用。
  4. 合作与代工:委托Rapidus代工芯片制造,后者计划2027财年启动第二座工厂建设;富士通成为继佳能后Rapidus的第二个本土重要客户(佳能订购数码相机图像处理芯片)。
  5. 市场定位:AI计算分“训练”(英伟达GPU主导复杂数据并行计算)与“推理”(NPU效率更高)场景,富士通聚焦推理端NPU,弥补自身无GPU生产能力的短板,通过与英伟达、AMD合作填补技术空白。

关键细节与战略意义

  • 本土自主化:1.4nm工艺+日本本土生产,呼应日本“技术自主可控”战略,减少对海外(如台积电、三星)先进制程的依赖,强化本土半导体产业链(尤其是AI芯片制造)。
  • 技术整合:NPU与CPU(源自“富岳NEXT”超级计算机项目技术积累)整合,复用成熟CPU架构提升NPU系统兼容性,同时规避单一依赖GPU的风险。
  • 生态合作
    • Rapidus:作为日本本土半导体制造新势力,富士通与其合作凸显其在AI芯片代工领域的商业化布局,与佳能(图像处理)、富士通(AI服务器)形成互补。
    • 英伟达/AMD:通过“CPU+英伟达GPU基板互连”(2030年目标)和“与AMD合作AI芯片”,富士通借助外部GPU能力强化系统整体性能,避免重复造轮子。

行业背景与竞争格局

  • AI计算硬件分工
    • 训练端:英伟达GPU以并行计算能力垄断大模型训练市场(如GPT系列模型);
    • 推理端:NPU因能效比优势成为核心,尤其适合中小模型推理(如边缘计算、终端应用)。富士通聚焦推理端NPU,瞄准细分场景需求。
  • 日本产业协同:通过政府支持(NEDO)、企业合作(富士通+Rapidus),日本在AI芯片“从设计到制造”全链条布局,试图在全球AI算力竞争中占据一席之地。

总结

富士通此次AI服务器芯片开发,既是技术补位(填补NPU自研能力),也是战略整合(联合本土制造与政府资源)。通过NPU+CPU整合、复用“富岳NEXT”技术基础、借力Rapidus先进工艺,富士通有望在AI服务器硬件领域形成差异化竞争力,同时推动日本本土半导体产业从“制造”向“设计+制造+生态”升级。

:文中“1.4nm工艺”可能属于实验室阶段或特定技术路线,需结合Rapidus量产进度进一步观察实际落地情况。 fmt 一站式数字化解决方案服务商 —— 专业提供软件开发、网站设计、APP 与小程序开发,搭载低费率支付通道,结合创意广告设计,助力企业全链路数字化升级。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部