新闻动态
2025年科技产业七大预测

浏览次数:173 发布时间:2024-10-29 09:27:22


本文由半导体产业纵横(ID:ICVIEWS)综合

TrendForce深入探讨了AI如何具体作用于半导体产业,以及它将如何引领半导体产业未来发展的新趋势。全球调研机构TrendForce集邦咨询于2024年10月16日举行《AI时代,半导体全局展开——2025科技产业大预测》研讨会。本次预测研讨大会的演讲主题涵盖了晶圆代工、HBM、NAND Flash、AI PMIC、AI服务器、面板级封装、液冷散热、AI PC和机器人等高科技产业。

 HBM市场面临的需求挑战与未来展望


HBM市场仍处于高成长阶段,随着AI Server持续布建,在GPU算力与存储器容量都将升级下,HBM成为其中不可或缺的一环,带动HBM规格容量上升,如英伟达(NVIDIA)Blackwell平台将采用192GB HBM3e存储器、AMD的MI325更是提升到288GB以上。由于HBM生产难度高、良率仍有显著改善空间,推高整体生产成本,平均售价约是DRAM产品的3至5倍,待HBM3e量产,加上产能扩张,营收贡献将逐季上扬。

 NAND Flash市场深度解析:AI浪潮下的机遇与挑战


NAND Flash 供应商经历2023 年的巨额亏损后,资本支出转趋保守。同时,DRAM 和HBM 等存储器产品需求受惠AI浪潮的带动,将排挤2025年NAND Flash 的设备投资,使得过去严重供过于求的市况将有所缓解。随着AI 技术快速发展,NAND Flash 市场正经历前所未有的变革。AI 应用对高速、大容量存储的需求日益增加,推动enterprise SSD(eSSD)市场的蓬勃发展。

 从晶圆代工动态预测2025 AI产业发展


因AI应用带动高效能运算芯片的需求热度已近两年,高算力应用成为先进制程及整体晶圆代工产业最大驱动力。自2025年起,除了AI芯片供应商及CSPs自研芯片,存储器供应商为顺应高算力需求,为使HBM和逻辑芯片有更好的适配性,争相寻求先进制程晶圆代工伙伴合作。晶圆厂上中下游配套IP、设计服务及后段的封测生态系皆是AI军备竞赛的必要资源,不再只专注在前段制程的先进技术。从整体晶圆代工产业分析,除先进制程的商机外,AI对电源管理的需求能否为长久以来需求平缓的成熟制程带来新的活力,以及2025年晶圆代工产业在Cloud AI与Edge AI的发展下将如何变革,都成为关注焦点。各应用分别在2024年将陆续结束长达两年的库存修正周期,TrendForce集邦咨询预估,2025年全球晶圆代工业产值将迎来20%的成长,台积电表现仍将一支独秀,其余晶圆代工厂也可望有近12%的年成长。

 高算力推升需求,AI PMIC为成熟制程发展注入新动能


由于全球经济前景仍存在不确定性,加之中国内需市场表现未达预期,2024年晶圆代工产业的主要增长动力将来自于AI服务器相关芯片。受此影响,先进制程高产能利用率有望延续至2025年。然而,28nm(含)以上成熟制程复苏步伐相对缓慢,预估2025年平均产能利用率仅略增5%至10%,达到80%左右水位;八吋平均产能利用率约落在75%左右,亟需寻求新增长动力填补产能空缺。值得注意的是,由于AI芯片迭代持续推升算力,使得相应的热设计功耗(TDP)持续增加,如英伟达A100最高TDP约为400W,进入H100增至700W,下一代Blackwell系列则将突破1,000W大关。越来越高的TDP需要更多Power IC协助管理功率传输、降低转换的能源损耗,进而提高整体效能。TrendForce集邦咨询预估,AI GPU所需Smart Power Stage(SPS) 数量随着产品迭代更新急剧增长,将带动相关需求在2023至2025年期间增长2至3倍,成为支撑成熟制程产能的一项新动能。

 面板级封装与AI芯片结合的可能


FOPLP的产品应用主要可分为PMIC及RF IC、消费性CPU及GPU、AI GPU等三类。其中, PMIC及RF IC采用chip-first技术,原本主要由OSAT厂商深耕,后续随着制程授权商兴起,推动IDM及面板厂商加入,扩大量产规模;消费性CPU及GPU采用chip-last技术,由已累积生产经验及产能的OSAT厂商开发,预估产品量产时间最早落在2026年。AI GPU则采用chip-last技术,由晶圆代工厂商主导,在晶粒尺寸扩大及封装颗数增加的趋势下,寻求将原本的CoWoS封装由wafer level扩大至panel level,产品量产时间最早为2027年。而FOPLP的发展尚面临挑战,包括技术瓶颈、面板尺寸多元等将影响设备研发能力,及厂商倾向待回收FOWLP产能的投资后再投入FOPLP的产能投资。

 2025年全球AI服务器市场及产业链关键发展动向预测


观察全球AI市场发展动态,2024年受益于CSPs及品牌客户群对建置AI基础设施的强劲需求,全球AI服务器(含搭载GPU、FPGA、ASIC等)的年出货量年增长率预计可达42%;2025年受云端厂商等需求带动,AI服务器的出货量可望再成长约28%,推动AI服务器占整体服务器市场比例提高至近15%。从中长期来看,在各种云端AI训练及推论应用服务推进下,预期2027年,AI服务器在整体服务器市场中的占比有望接近19%。观察主要AI芯片供应商,预估2024年英伟达在GPU市场的市占率将接近90%,预估2025年上半Blackwell新平台将逐步放量,成为NVIDIA高阶GPU出货主流。通过搭载纯GPU(如B200)或整合自家Grace CPU的GB200等多元方案,以满足不同客群的需求。其他厂商如AMD、Intel及CSPs在积极发展新一代AI芯片的趋势下,将推升2025年出货增长动能,进一步带动CoWoS、HBM出货量翻倍成长。

 AI带动,液冷散热技术航向新蓝海


近年来Google、AWS和Microsoft等大型美系云端厂商积极在全球建置新数据中心并加快布建AI服务器。由于芯片算力升级,热设计功耗 (TDP) 将显著提升,如英伟达新推出的GB200 NVL72机柜方案的TDP将高达约140kW,须采用液冷方案才能有效解决散热问题,预计初期将以水对气(Liquid-to-Air, L2A)方式为主流。预估2025年随着GB200机柜方案正式放量出货,将带动整体AI芯片的液冷散热渗透率,从2024年的11%提升至2025年的24%。另外,就云端厂商自研高阶AI ASIC来说,Google为最积极采用液冷方案的美系厂商,而其余云端厂商仍以气冷为主要散热方案。除此之外,在全球政府及监管机构对于ESG意识逐渐提升下,将加速带动散热方案由气冷转液冷形式发展,预期液冷方案渗透率逐年攀升,促使电源供应厂商、散热厂商及系统整合厂等竞相投入AI液冷市场,形成新的产业竞争、合作态势。*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。