欢迎光临 废废网!
废废首页 注册 登录 加为收藏
美光CEO:AI才刚开始 内存已不够 今年DRAM与NAND需求或吞噬过半市场
发布时间:2026-05-06 点击量:6次

AI对DRAM和NAND的需求正在以超出产业供给能力的速度膨胀。按当前趋势,这部分需求今年预计将超过内存行业总可寻址市场(TAM)的50%——而据分析师判断,供给瓶颈在2028年之前不太可能得到实质性缓解。

美光科技CEO Sanjay Mehrotra近日接受CNBC采访时直言,AI产业仍处于"早起阶段"(First Innings)。他指出,随着推理规模扩大,token需求将持续攀升,而token生成速度依赖更快、更大容量的内存——"内存已成为客户的战略资产"。他强调,当前面临的核心矛盾不是需求或定价,而是供给本身极度紧张且无法快速扩产。

美光刚刚公布的2026财年Q2业绩佐证了这一判断:公司营收、毛利率、每股收益及自由现金流均创历史新高,Q3预计将再度刷新纪录。

供给缺口:2028年前难见拐点

美光指出,传统服务器与AI服务器的需求均保持强劲,但同时受到DRAM和NAND供应紧张的制约。英国《金融时报》援引分析师观点称,考虑到新建晶圆厂所需的建设周期,供应紧缺局面在2028年之前不太可能缓解。

韩国媒体Global Economic的报道则给出了更具体的量化预期:随着面向NVIDIA Vera Rubin等下一代AI GPU的12层HBM4开始放量,更为谨慎的预测认为到2027年行业可能仅能满足约60%的DRAM需求。这一供需格局将巩固内存厂商的定价权,但硬币的另一面是,若量产进度未达预期,厂商的市场地位同样可能承压。

需求侧的推力仍在加速。Agentic AI工作负载正推动CPU的内存支持规格向400GB扩展——约为当前水平的4倍。NVIDIA Vera Rubin、AMD MI400等下一代AI GPU均将搭载HBM4,在带宽提升的同时大幅扩展容量上限。LPDDR则凭借功耗效率优势,正成为大规模AI部署中的首选方案。

美光的产品应对:HBM4已供货,HBM4E明年量产

面对紧张的供需环境,美光正沿多条产品线推进下一代布局。公司目前已为NVIDIA Vera Rubin平台供应36GB(12-Hi)HBM4 DRAM,现有HBM3工艺预计达到成熟良率。下一代HBM4E内存计划明年开始量产爬坡。

在LPDDR领域,美光近期推出基于LPDDR5X的256GB SOCAMM2方案,可提供最高2TB容量。DDR5方面,公司正为NVIDIA Groq 3 LPX供货,Groq LPU单芯片支持最高12TB容量。

消费端同样感受到供给紧张的传导效应。美光预计PC和智能手机出货量将出现低双位数下滑,主要受供应受限和价格上涨驱动。一个值得关注的趋势信号是:32GB正在成为本地运行Agentic AI工作流的PC标准内存配置。

本资讯中除公开信息外的其他数据均是基于公开信息(包括但不仅限于行业新闻、研讨会、展览会、企业财报、券商报告、国家统计局数据、海关进出口数据、各大协会和机构公布的各类数据等等),并依托废废网/道奇财经内部数据库模型,由研究小组进行综合分析和合理推断得出,仅供参考,不构成决策建议,客户决策应自主判断,与废废网/道奇财经无关。

废废网/道奇财经对本声明条款拥有最终解释权,并保留根据实际情况对声明内容进行调整和修改的权利。