对 AI ASIC 和 SSD 的需求正在飙升。 Marvell Technology (MRVL.US) 赚取“人工智能推理红利”,营业利润飙升 72%

智通财经APP获悉,专注于大规模AI数据中心定制AI芯片(即AI ASIC)、亚马逊AWS Trainium系列AI ASIC最大合作伙伴之一的Marvell科技(MRVL.US)在北京时间3月6日美股收盘后宣布,所有业绩报告和未来前景均超出华尔街预期。 Marvell最新公布的非常强劲的业绩和展望,结合前一天来自AI ASIC市场领导者博通(AVGO.US)的爆炸性增长业绩数据,突显了AI推理时代的到来、对存储芯片的持续强劲需求、对云端AI推理计算能力不断增长的需求,以及专注于将大规模AI模型纳入企业运营、推出动力系统最具成本效益的AI ASIC计算实体的“微训练”趋势。这对英伟达占据近90%市场份额的AI芯片垄断地位造成了很大冲击。根据财报数据显示,Marvell科技截至1月31日的2026财年第四季度营收约为22.2亿美元,创下历史最高营收数据,实现超过20%的同比增长,略高于华尔街分析师约22.1亿美元的平均预期。第四季度调整后每股收益(非公认会计原则每股收益)为 0.80 美元,超过华尔街去年同期平均预期约 0.79 美元和 0.60 美元。 GAAP 营业收入为 4.044 亿美元,较上年大幅增长 72%,超出华尔街的平均预期。期内普通股股东应占有用性净值约为3.961亿美元,较去年同期增长约97.9%。其中,与AI训练/推理超级系统密切相关的数据中心业务为Marvell T贡献了约16.5亿美元科技公司营收约占总营收的74%,在上一季度的强劲基础上实现了约21%的同比增长和9%的环比增长。该公司公布其财务业绩。它强调数据中心业务的订单正在以“创纪录的速度”增长。财报发布后,美股收盘后,Marvell科技股价飙升逾15%。至于对移动市场的展望,首席执行官Muwell预计本财年销售额将实现“进一步加速”的同比增长。 Marvell Technology 管理层对 2027 年第一季度收入的中值预估约为 24 亿美元,显着高于分析师平均预估的约 22.7 亿美元。如您所知,自 1 月底谷歌、亚马逊和英伟达等美国科技巨头宣布强劲的财务业绩以来,这些盈利预期一直在稳步上升。英石不过,Marvell 的官方展望仍然强于分析师的预期,且不断修正,这足以说明全球 AI ASIC 技术之路上对 AI 算力基础设施的需求有多么爆炸性。作为 ASIC 领域的领导者,Marwell 和 Broadcom 的业绩将在 2024 年及以后继续保持爆炸性的“Nvidia 式”增长轨迹。该公司的非公认会计准则基准被下调。调整后每股收益范围为 0.74 美元至 0.84 美元,中间范围显着高于华尔街分析师的平均预期。预计非公认会计准则毛利率范围为58.25%至59.25%,也高于分析师的平均预期。在 Marvell 科技公布强劲业绩和展望的前一天,AI ASIC 巨头博通发布业绩数据,显示博通总营收升至 193 亿美元,同比大幅增长 29%。据 Broadcom 称,人工智能相关收入增长了一倍多,达到 8 美元。期内营收40亿美元,来自智能手机专用ASIC和射频芯片等半导体业务的AI半导体解决方案收入,第一季度达到1251.5万美元,同比大幅增长52%,增速远超公司此前预期。从上面提到的博通财报中最重要的是,博通CEO表示,明年AI芯片(主要是AI ASIC)的营收将超过1000亿美元。博通最新的AI芯片收入目标为1000亿美元,其中既包括来自AI ASIC算力集团的收入,这些收入与英伟达主导的AI GPU竞争激烈,也包括来自AI网络芯片产品,特别是高性能以太网交换芯片的收入。因此,可以说,博通和Marvell这两家ASIC龙头的表现,强化了共同所说的“AI ASIC牛市叙事逻辑”。随着谷歌、亚马逊、微软等云计算巨头纷纷推出“AI算力成本革命”加速AI ASIC采用规模的推进,推理时代的核心竞争不再仅仅是“峰值算力”,而是每枚代币的成本、功耗、内存带宽利用率、互连效率,以及随之而来的软件总拥有成本。硬件协作。基于这些基本指标,针对特定工作负载定制的具有数据流、编译器和互连的 ASIC 自然比通用 GPU 更具成本效益。 TIPRANKS编制的价格目标表明,华尔街分析师对Marvell科技的人工智能芯片和SSD存储芯片核心控制业务的创收前景非常乐观。分析师一致评级为“强力买入”,未来 12 个月的平均目标价高达 118 美元,这意味着该股的上涨潜力高出 56%。 AI ASIC与SSD存储主控芯片协同发挥重大作用极大地提高漫威的表现。从当前全球AI基础设施建设超级浪潮来看,Marvell科技的强劲表现主要得益于数据中心基础设施半导体(尤其是定制化AI ASIC/高性能通信与控制芯片/数据中心级eSSD存储主控芯片)需求的整体爆发是一回事。 Marvell科技近年来强劲的收入增长轨迹主要得益于其数据中心业务,特别是其向云计算服务提供商和超级计算平台提供的定制AI ASIC芯片、高带宽网络芯片、互连解决方案和SSD存储控制器。这些产品都离不开AI推理/训练平台。数据中心在收入中所占的比例继续不断增加,并且增长速度明显快于公司整体的增长速度。漫威科技长期专注于加速AI ASIC芯片技术的发展迭代升级架构、网络处理器(DPU/NPU)、SSD主控、定制化高带宽互联产品。随着全球对人工智能算力的需求迅速扩大,对这些产品训练超大型人工智能模型、推理任务以及存储和处理天空级数据流的需求正在迅速增长。为超大规模数据中心客户定制芯片设计不再是边缘业务,而是全球芯片公司的主要增长动力。 Amazon AWS 正式将 Trainium/Inferentia(与 Marvell 合作构建的 AI ASIC 计算集群)定位为专用于生成式 AI 训练和推理的加速器。 Trainium2 的性价比比 AI GPU 云实例高约 30% 到 40%。谷歌前段时间还宣布Gemini 2.0的训练和推理将100%在TPU上运行。这表明“大型云计算工厂在本地创建的商业 ASIC,用于核心模型训练/推理”Broadcom和Marvell最新强劲的财报显示,AI ASIC强大且前所未有的增长逻辑正在推动席卷全球的生成式AI热潮,加速芯片巨头云计算和AI芯片的开发。他们竞相为大规模AI先进数据中心设计最快、最节能的AI计算基础设施集群。Broadcom及其最大竞争对手Marvell主要致力于发挥其在高速方面的绝对优势。与亚马逊、谷歌、微软等云计算巨头合作,打造针对AI数据中心特定需求量身定制的AI ASIC算力集群,这一业务已经成为两家公司非常重要的业务,例如博通和谷歌打造的算力组TPU AI就是最典型的AI ASIC技术路线。特。 Marvell的强劲表现,加上之前宣布的“存储超级周期”中受益最大的三大存储芯片制造商三星、SK海力士和美光的表现,凸显出高性能SSD/存储控制器核心芯片将继续成为“隐藏计算能力”的主要驱动力。在大型模型训练/推理系统中,I/O带宽、持久存储访问效率和内存池互连效率也限制了整体训练成本和性能。 Marvel Technology的SSD主控芯片、NVMe/CXL缓存控制器和高带宽存储互连产品线是满足日益增长的带宽需求的关键组件。虽然这些高度专业化的控制 ASIC 不如呈指数级增长的 AI ASIC 业务那么突出,但它们对于超大型参数 AI 模型的数据状态处理至关重要,直接驱动数据中心级别的系统效率和服务质量。半导体r和A从数据中心基础设施十字路口的分析角度来看,SSD存储芯片之所以“彻底陷入”AI超级浪潮中,是因为它们同时受益于训练扩展和推理扩展两条主线,也因为它们也是平台、架构和生态之间的“万能收费站”。随着AI时代从以训练为中心转向以推理、代理、丰富上下文和搜索丰富为中心,系统将需要越来越多层次的容量、带宽、安达、能源效率和数据持久性。 HBM 绝不是人工智能数据中心严重依赖的唯一存储系统。摩根大通等机构表示,随着人工智能工作负载从训练转向推理以及附近存储空间出现 HDD 供应瓶颈,专注于最高层企业级存储的 NVMe eSSD 正在推动前所未有的结构性增长。由于AI数据中心的强劲需求,DRAM/NAND系列存储产品稻米将继续上涨。法国巴黎银行近日发布研究报告称,预计2026年第一季度DRAM合约价格环比上涨90%。以价格曲线稳定而闻名的NAND预计将上涨55%,第二季度价格将延续上行轨迹,为2025年下半年以来首次。法国巴黎银行针对存储价格上涨的决定并非独一无二。 TrendForce最近将2026年第一季度传统DRAM合约价格预测从之前的季度增长率55%至60%上调至+90%至+95%(环比或环比)。与此同时,NAND闪存合约价格环比大幅调整在+55%至+60%之间,表明北美云计算提供商对企业级SSD(即数据中心的企业级)感兴趣。由于需求增加(SSD、eSSD),预计第一季度价格将再次上涨,环比上涨 53% 至 58%每季度。随着AI推理浪潮席卷全球,AI ASIC的黄金时代已经到来。 HeMarvell Technology首席执行官Matt Murphy在财报电话会议上表示,这家定制芯片设计巨头在2026财年获得了创纪录数量的定制芯片设计客户订单,并预计这种情况将持续下去。墨菲表示,由于“我们的数据中心业务持续强劲增长”,预计本财年的收入增长将“进一步加速”。他还补充说,数据中心业务的预订正在以“创纪录的速度”加速增长。几乎以NVIDIA AI GPU为主的AI训练端,需要更强大的AI算力池的通用性以及跨算力系统快速迭代的能力,而AI推理端则更注重单位代币成本、延迟以及部署后的能效等前沿AI技术的大规模部署。例如,Google 已明确将 Ironwood 定位为基因TPU“为AI推理时代而生”的定位,重点关注性能/能效/成本效益以及算力集群的可扩展性。但亚马逊的最新行动表明,AI ASIC 在训练大规模模型方面具有巨大潜力。毫无疑问,中长期来看,AI ASIC算力系统将继续削弱英伟达的垄断溢价和分工。分割市场份额而不是线性取代GPU系统的理由是,推理时代的核心能力不再只是“峰值计算能力”,而是软件和硬件协同工作后的每代币成本、功耗、内存带宽利用率、互连效率以及总体拥有成本。根据这些指标,具有针对特定工作负载定制的数据流、编译器和互连的 ASIC 自然比通用 GPU 更具成本效益。未来人工智能数据中心可能发生的情况是边缘计算云计算能力和通用云计算能力将继续由GPU主导,而超大规模内部推理、代理工作流程和高频固定负载将加速向ASIC发展,将数据中心带入真正的异构计算能力时代。在前沿训练时代,GPU有着天然的优势,因为AI领域最需要的是通用性、软件成熟度以及对新模型结构的快速适应。然而,随着行业开始从“训练较少”转向“infe规模”,这是Hyperscalers(云计算巨头)集体加速ASIC的根本原因。例如,谷歌明确将Ironwood TPU定义为“推理时代”的最佳计算集群,可扩展至9,216个芯片。微软将其刚刚推出的AI ASIC Maia 200直接定位为云计算推理的加速器,声称可以提供30%的性能提升与当前的下一代硬件相比,每美元的成本更高。 AWS将Trainium3定义为一款致力于“最佳代币经济性”并专注于将能源效率提高4倍以上的芯片。总体而言,市场对 NVIDIA 增长前景的担忧是合理的,因为这家云计算巨头正在发起一场“AI 算力成本革命”,以推动 AI ASIC 的采用规模。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传,网易号是一个仅提供上传和发布服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注