10月28日,高通正式发布其面向数据中心的新一代ai推理优化方案:搭载qualcomm ai200与ai250芯片的加速卡及机架式系统。
这两款新产品以行业领先的总体拥有成本(TCO),为数据中心的生成式AI推理任务提供强大的机架级性能和出色的内存配置,满足日益增长的AI计算需求。

其中,Qualcomm AI200专为机架规模AI推理设计,针对大语言模型(LLM)、多模态模型(LMM)以及其他关键AI应用,在性能和成本之间实现高度优化,显著降低部署开销。
每块加速卡配备高达768GB的LPDDR内存,兼顾大容量存储与经济性,赋予AI推理更强的可扩展性和部署灵活性。
而Qualcomm AI250则率先采用近存计算(Near-Memory Computing)架构,通过创新的内存设计实现有效带宽提升超10倍,并大幅削减功耗,从而在能效和处理性能上实现质的飞跃。
该架构支持解耦式的AI推理模式,提升硬件资源利用率,灵活适配不同客户的性能与预算要求。
两款机架级系统均支持直接液冷技术,强化散热效能;同时具备PCIe纵向扩展能力与以太网横向扩展能力,并集成机密计算功能,确保AI工作负载的数据安全。整套机架系统的总功耗控制在160千瓦以内。
按照高通路线图,Qualcomm AI200预计将于2026年投入商用,AI250则计划于2027年上市。

以上就是高通发布AI200和AI250芯片:重新定义AI机架 明年起商用的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号