[]
参考文档:
“The Intel for ”项目(ipex)通过在官方注册的“ =xpu”设备为英特尔独立 GPU 提供深度学习加速。
这允许用户在平台,或者在 21H2/Win11平台依托WSL2或者,来配置显卡加速训练和推理。
(和AMD显卡的ROCm相比,后者只能运行在等Linux系统上,但是仍然可以使用 =cuda设备代码,无须修改源代码,更加友好)
有点类似于平台的虚拟机包和镜像管理系统,它基于WSL2开发,因此和WSL2一样具有远程开发等功能。通过拉取提供的官方镜像可以简化环境依赖安装,非常方便。
本文将会使用 独显运行一个最基础的t-image模型。
步骤
环境依赖
首先要保证安装了正确的Arc显卡驱动(参见官方文档的安装说明)
确认系统已升级到Win11或最新的Win10,以获得完整的WSL2功能。
安装基于WSL2的
首先要启用WSL2功能,这部分不是重点,网上教学非常丰富。注意这一步和安卓模拟器冲突,只能选一个
wsl -l -v
确认WSL2正常启用后,在官网安装客户端并重启,确认 启动成功,需要对的操作有一定了解。
(如果不想用的话,可以参考官方文档,在或物理机下手动安装ipex及其依赖环境,道理都是一样的)
拉取官方ipex镜像
官方提供的ipex镜像可以通过 [/r/intel/intel–for-/tags]访问,Arc独显用户理论上应该使用gpu这个镜像,但也可以试试。镜像中已经包含了等环境依赖,比较方便。在启动容器之前,先把SD离线模型下载下来!
mkdir c:data
cd c:data
git lfs
git clone
(具体路径请自行修改)
运行官方镜像启动一个容器(注意这里原作者留了一个端口给开发,但我更喜欢用,功能非常强大。用户可以自行决定哪一个更适合)
run -it –rm
— /dev/dxg
-v /usr/lib/wsl:/usr/lib/wsl
-v c:data:/data
-p 9999:9999
intel/intel–for-:gpu
通过命令行检查是否连接到A770显卡。并通过声明的9999端口启动远程连接
-c ” torch; as ipex;print(ipex.xpu.(0))”
cd c:/data
pip -q
–allow-root –ip 0.0.0.0 –port 9999
这里应该能够正确识别显卡
用显卡运行image模型
用浏览器打开给的URL来进行开发。运行SD模型。
# for this
%pip -q
as ipex
torch
from ine
# check Intel GPU
print(ipex.xpu.(0))
# load the model
pipe = ine.(“./–v1-5”,
=”fp16″,
=torch.)
# move the model to Intel Arc GPU
pipe = pipe.to(“xpu”)
# model is ready for
pipe(“an a horse on mars”).[0]
# run query
pipe(“cat on a park bench”).[0]
可以成功得到结果,收工
同样,用户可以通过这个项目在WSL2 和 Intel Arc GPU 上运行任何其他的 模型,并且通过官方提供的ipex.函数对运行速度进行优化。
目前大部分AI绘画的前端脚本都是基于CUDA进行编写,因此兼容接口的webui仍有待开发。
关键词:绘图ai绘画英特尔显卡