高通双拳出击AI数据中心,新一代推理芯片挑战行业格局

 187    |      2025-11-21 06:22

高通官方宣布推出专为数据中心打造的AI推理优化解决方案,以AI200和AI250芯片为核心的双拳组合,正面切入被英伟达主导的AI计算市场。

美国移动芯片巨头高通正式向数据中心AI市场迈出关键一步。该公司推出基于Qualcomm AI200和AI250芯片的加速卡及机架系统,旨在为生成式AI推理工作负载提供高性能、低总体拥有成本的解决方案。

这一举措标志着高通从终端侧AI向数据中心领域的重要扩展,预计将于2026年和2027年分别实现商用。

01 差异化竞争策略

面对英伟达在AI训练市场的绝对主导地位,高通选择了一条差异化的竞争路径:专注于AI推理市场,并以机架级性能和高内存容量为核心卖点。

AI推理指的是在实际应用环境中运行已经训练好的AI模型,与AI训练阶段相比,推理阶段更注重能效和成本。高通高级副总裁马德嘉表示,这些解决方案将助力客户“以前所未有的总体拥有成本部署生成式AI”。

市场对这一战略给予了积极回应。发布当日,高通股价一度暴涨近20%,最终收盘涨幅超过11%,创下2019年以来最大单日涨幅。

02 两款芯片的技术特点

AI200和AI250虽然同属推理芯片,但各有侧重。AI200专为机架级AI推理设计,支持高达768GB的LPDDR内存,为大语言模型和多模态模型推理提供高内存容量和低成本优势。

AI250则采用了创新性的近存计算架构,使其有效内存带宽提升超过10倍,同时功耗大幅降低。这种架构支持“分解式AI推理”,可以实现硬件资源的高效利用。

两款解决方案均配备直液冷散热系统,整机柜的功率消耗控制在160千瓦,满足大规模部署的需求。

03 软件生态与商业化进展

高通深知,在数据中心市场成功不仅靠硬件,更需要完善的软件生态。两款芯片均配备了丰富的软件栈,支持主流AI框架和一键模型部署功能。

开发者可以通过高通的工具链实现Hugging Face模型的一键部署,大大降低了使用门槛。高通已与沙特阿拉伯公共投资基金旗下的AI公司HUMAIN达成合作,将于2026年起开始部署总容量达200兆瓦的机架解决方案。

这一合作被视为高通AI芯片商业化的重要里程碑,也为其他潜在客户提供了参考案例。

以上信息综合自网络爆料,具体参数以官方发布为准。配置信息或存在迭代或误差可能,理性看待爆料内容哦,图源高通微博

#玩出数码新浪潮#