英特尔升级AI推理性能提升80%

AI资讯4周前发布 ainav
24 0

8月12日讯,科技媒体WccfTech昨日(8月11日)发表博文称,英特尔为其锐炫Pro系列GPU的Battlematrix项目发布了首个重要软件更新——LLM Scaler v1.0版本,主要针对AI推理能力进行了优化。

此前在5月份报道中提到,英特尔于COMPUTEX 2025台北国际电脑展上,除了推出锐炫Arc Pro B50和B60两款显卡外,还展示了Project Battlematrix推理工作站平台。该平台可支持最多8张锐炫Pro显卡,并配备完善的软件包,能够运行参数量高达150B的中大型高精度AI模型。

Battlematrix平台通过整合硬件与定制化软件栈,显著提升了推理性能和企业部署体验。而LLM Scaler作为基于vLLM框架开发的AI大模型推理容器,支持多GPU扩展、长序列高效处理及多模态任务。

英特尔升级AI推理性能提升80%

LLM Scaler v1.0版本对vLLM推理框架进行了重点优化。测试数据显示,对于32B参数模型,在40K序列长度下性能提升达1.8倍;而对于70B参数模型,在相同条件下性能提升更是高达4.2倍。此外,8B至32B规模的模型输出吞吐量相比上一版本提升了约10%。

该版本还引入了分层在线量化技术,有效降低了显存占用,并支持管道并行、数据并行等多种功能,进一步增强了模型的适应性和扩展性。同时新增了对多模态模型及嵌入、重排序等任务的支持。

为了便于企业级运维管理,LLM Scaler v1.0版本集成了XPU Manager工具,支持GPU电源管理和固件升级等功能,并提供诊断和显存带宽检测能力。

新容器基于Linux平台构建,充分优化了多GPU扩展性能,并通过PCIe点对点数据传输技术实现了最高80%的整体性能提升。系统还具备ECC、SRIOV、遥测与远程固件更新等企业级特性,确保可靠性与可管理性。

英特尔升级AI推理性能提升80%

英特尔升级AI推理性能提升80%

英特尔强调,新软件栈严格遵循行业标准,并兼容主流开发流程。通过集成OneCCL基准测试工具,为开发者提供了更便捷的调优和性能评测手段,进一步完善了Battlematrix平台的生态支持体系。

根据英特尔官方路线图显示,本季度内还将发布更加稳定的容器版本,持续优化vLLM服务功能。预计到今年第四季度,Battlematrix项目将推出完整功能版本,推动大模型推理平台的整体升级,为专业领域用户提供更高效、更易用的AI解决方案。

© 版权声明

相关文章