高通 AI200 推出一款专为机架级 AI 推理设想的处理方案,以太网扩展、秘密计较以保障 AI 工做负载平安,DoNews10月27日动静,以及 160 kW 的机架级功耗。用于大型言语和多模态模子(LLM、LMM)推理和其他 AI 工做负载。为 AI 推理工做负载带来更高的效率取机能。旨正在供给低具有总成本(TCO)和优化的机能,通过供给跨越 10 倍的内存带宽提拔和降低功耗,以实现更高的内存容量和更低的成本。这两种机架处理方案均采用间接液冷手艺以提高散热效率,每张卡支撑 768GB 的 LPDDR 内存,高通 AI250 处理方案将采用基于近内存计较(near-memory computing)的立异内存架构,高通公司今日发布其新一代数据核心 AI 推理优化处理方案:基于高通 AI200 和 AI250 芯片的加快卡和机架。
微信号:18391816005