寒武纪 MLU 安装说明

飞桨框架 MLU 版支持寒武纪 MLU 的训练和推理,提供两种安装方式:

  1. 通过飞桨官网发布的 wheel 包安装

  2. 通过源代码编译安装得到 wheel 包

寒武纪 MLU 系统要求

要求类型 要求内容
芯片型号 寒武纪思元 370 系列,包括 MLU370X8、MLU370X4、MLU370S4
操作系统 Linux 操作系统,包括 Ubuntu、KylinV10

注意develop 分支仅支持『寒武纪 MLU370』系列芯片。查看芯片类型请参考如下命令:

# 系统环境下运行如下命令,如果有设备列表输出,则表示当前为『寒武纪 MLU370』系列芯片
lspci -vvt | grep 370

运行环境准备

您可以基于 docker、pip、源码等不同方式准备飞桨开发环境

基于 Docker 的方式(推荐)

我们推荐使用飞桨官方发布的寒武纪 MLU 开发镜像,该镜像预装有寒武纪基础软件开发平台和飞桨 3.0 版本的 SDK。

# 拉取镜像
docker pull ccr-2vdh3abv-pub.cnc.bj.baidubce.com/device/paddle-mlu:3.0.0-ctr2.15.0-ubuntu20-gcc84-py310
# 参考如下命令,启动容器
docker run -it --name paddle-mlu-dev -v $(pwd):/work \
  -w=/work --shm-size=128G --network=host --privileged  \
  --cap-add=SYS_PTRACE --security-opt seccomp=unconfined \
  -v /usr/bin/cnmon:/usr/bin/cnmon \
  ccr-2vdh3abv-pub.cnc.bj.baidubce.com/device/paddle-mlu:3.0.0-ctr2.15.0-ubuntu20-gcc84-py310 /bin/bash

选项说明及可调整参数

--name paddle-mlu-dev
  • 作用:指定容器名称。

  • 可调整

    • 用户可改为其他名称,例如 paddle-mlu-test,方便区分不同实验。

-v $(pwd):/work
  • 作用:挂载本地目录到容器内 /work 目录。

  • 可调整

    • 可以修改 $(pwd) 为实际路径,例如 -v /data/projects:/work,让容器访问宿主机的数据。

--shm-size=128G
  • 作用:设置共享内存大小,影响数据处理和计算效率。

  • 可调整

    • 若内存有限,可降低,如 --shm-size=32G,但可能影响大规模训练。

    • 若训练任务需要更大共享内存,可提高,如 --shm-size=256G

# 检查容器内是否可以正常识别寒武纪 MLU 设备
cnmon
# 预期得到输出如下
+------------------------------------------------------------------------------+
| CNMON v5.10.13                                               Driver v5.10.13 |
+-------------------------------+----------------------+-----------------------+
| Card  VF  Name       Firmware |               Bus-Id | Util        Ecc-Error |
| Fan   Temp      Pwr:Usage/Cap |         Memory-Usage | SR-IOV   Compute-Mode |
|===============================+======================+=======================|
| 0     /   MLU370-X8    v1.1.6 |         0000:39:00.0 | 0%                N/A |
|  0%   32C        106 W/ 250 W |     0 MiB/ 23374 MiB | N/A           Default |
+-------------------------------+----------------------+-----------------------+
| 1     /   MLU370-X8    v1.1.6 |         0000:3D:00.0 | 0%                N/A |
|  0%   39C        106 W/ 250 W |     0 MiB/ 23374 MiB | N/A           Default |
+-------------------------------+----------------------+-----------------------+

+------------------------------------------------------------------------------+
| Processes:                                                                   |
|  Card  MI  PID     Command Line                             MLU Memory Usage |
|==============================================================================|
|  No running processes found                                                  |
+------------------------------------------------------------------------------+

基于 pip 安装的方式

# 下载并安装 wheel 包
python -m pip install paddlepaddle==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/cpu/
python -m pip install paddle-custom-mlu==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/mlu/

基于源码编译的方式

# 下载 PaddleCustomDevice 源码
git clone https://github.com/PaddlePaddle/PaddleCustomDevice -b release/3.0.0

# 进入硬件后端(寒武纪 MLU)目录
cd PaddleCustomDevice/backends/mlu

# 先安装飞桨 CPU 安装包
python -m pip install paddlepaddle==3.0.0 -i https://www.paddlepaddle.org.cn/packages/stable/cpu/

# 执行编译脚本 - submodule 在编译时会按需下载
bash tools/compile.sh

# 飞桨 MLU 插件包在 build/dist 路径下,使用 pip 安装即可
python -m pip install build/dist/paddle_custom_mlu*.whl

基础功能检查

输入如下命令进行飞桨基础健康功能的检查。

# 检查当前安装版本
python -c "import paddle_custom_device; paddle_custom_device.mlu.version()"
# 预期得到如下输出结果
version: 3.0.0
commit: e6e31bd475e38c18d2c39d58fad903bd16b3ca0d
cntoolkit: 3.10.1
cnnl: 1.25.1
cnnl_extra: 1.8.1
cncl: 1.16.0
mluops: 1.1.1
# 飞桨基础健康检查
python -c "import paddle; paddle.utils.run_check()"
# 预期得到输出如下
Running verify PaddlePaddle program ...
PaddlePaddle works well on 1 mlu.
PaddlePaddle works well on 8 mlus.
PaddlePaddle is installed successfully! Let's start deep learning with PaddlePaddle now.