您的位置:首页 >动态 > 综合精选 >

英特尔PyTorch扩展现已支持英特尔ArcGPU增强人工智能深度学习和法学硕士能力

导读 ArcA系列GPU现已在英特尔PyTorch扩展(IPEX)中得到支持,可在深度学习和法学硕士领域提供更快的AI功能。IntelPyTorch扩展现在充分利用ArcA系

ArcA系列GPU现已在英特尔PyTorch扩展(IPEX)中得到支持,可在深度学习和法学硕士领域提供更快的AI功能。

IntelPyTorch扩展现在充分利用ArcA系列GPU上的XMXAI硬件

英特尔基于Alchemist架构的ArcA系列GPU具有大量的硬件潜力,并且这些潜力正在日复一日地得到实现。软件部门在优化这些GPU的游戏性能方面做得非常出色,现在的重点是新兴的AI市场,这些上的XMX单元将在该市场中得到充分利用。

在更新中,英特尔确认IPEX(PyTorch的英特尔扩展)现在跨Windows、Linux和WSL2平台提供对ArcA系列GPU的支持。凭借这一新增支持,英特尔A系列GPU不仅可以提升LLM等深度学习模型的加速,还可以为英特尔硬件带来新的优化,从而实现更快的性能,并使用户能够在Alchemist系列GPU上运行PyTorch模型。

对于那些拥有IntelArcA系列GPU并希望利用PyTorch中的XMXAI引擎的人来说,该公司在此处发布了有关如何在Windows和WSL2上运行Llama2界面的完整博客。据英特尔人工智能软件团队介绍:

GPU非常适合大型语言模型(LLM)工作负载,因为GPU擅长大规模数据并行性和高内存带宽。ArcA系列显卡(包括ArcA770显卡)是高性能显卡,拥有多达512个Xe矩阵扩展(XMX)引擎,提供加速执行深度学习模型(包括法学硕士)的能力。

IPEX利用英特尔独立GPU上的XMX引擎,通过对英特尔硬件的最新性能优化来扩展PyTorch。

PyTorch的IPEX扩展支持PyTorchXPU设备,使其能够轻松地将PyTorch模型和输入数据移动到设备,以便在具有GPU加速功能的英特尔离散GPU上执行。

最新版本的IPEX(v2.1.10+xpu)正式支持WSL2、本机Windows和本机Linux上的ArcA-SeriesGraphics。

演示了通过Ipex在Windows上的ArcA770图形和WSL2上运行Llama27B和Llama2-Chat7B推理。

要在ArcA系列GPU上运行Llama2或任何其他PyTorch模型,只需添加几行额外的代码即可导入intel_extension_for_pytorch和.to("xpu")将模型和数据移动到设备以在ArcA上执行系列GPU。

我们最近发表了一篇文章,引用了英特尔前GPU老板RajaKoduri的话,他提到客户端和游戏PCGPU如何在实现AI成功方面发挥着至关重要的作用。英特尔扩大对其ArcA系列GPU的支持对于该细分市场来说是一件好事,NVIDIA和AMD一直通过在以消费者为中心的硬件上提供快速的人工智能支持而处于领先地位。

免责声明:本文由用户上传,如有侵权请联系删除!