长期支持版本

    社区创新版本

      openEuler AI 容器镜像用户指南

      简介

      openEuler AI 容器镜像封装了不同硬件算力的 SDK 以及 AI 框架、大模型应用等软件,用户只需要在目标环境中加载镜像并启动容器,即可进行 AI 应用开发或使用,大大减少了应用部署和环境配置的时间,提升效率。

      获取镜像

      目前,openEuler 已发布支持 Ascend 和 NVIDIA 平台的容器镜像,获取路径如下:

      • openeuler/cann 存放 SDK 类镜像,在 openEuler 基础镜像之上安装 CANN 系列软件,适用于 Ascend 环境。

      • openeuler/cuda 存放 SDK 类镜像,在 openEuler 基础镜像之上安装 CUDA 系列软件,适用于 NVIDIA 环境。

      • openeuler/pytorch 存放 AI 框架类镜像,在 SDK 镜像基础之上安装 PyTorch,根据安装的 SDK 软件内容区分适用平台。

      • openeuler/tensorflow 存放 AI 框架类镜像,在 SDK 镜像基础之上安装 TensorFlow,根据安装的 SDK 软件内容区分适用平台。

      • openeuler/llm 存放模型应用类镜像,在 AI 框架镜像之上包含特定大模型及工具链,根据安装的 SDK 软件内容区分适用平台。

      详细的 AI 容器镜像分类和镜像 tag 的规范说明见oEEP-0014

      由于 AI 容器镜像的体积一般较大,推荐用户在启动容器前先通过如下命令将镜像拉取到开发环境中。

      docker pull image:tag
      

      其中,image为仓库名,如openeuler/canntag为目标镜像的 TAG,待镜像拉取完成后即可启动容器。注意,使用docker pull命令需按照下文方法安装docker软件。

      启动容器

      1. 在环境中安装docker,官方安装方法见Install Docker Engine,也可直接通过如下命令进行安装。

        yum install -y docker
        

        apt-get install -y docker
        
      2. NVIDIA环境安装nvidia-container

        1)配置yum或apt repo

        • 使用yum安装时,执行:
        curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | \
        sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
        
        • 使用apt安装时,执行:
        curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
        
        curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
        sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
        sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
        

        2)安装nvidia-container-toolkit,nvidia-container-runtime,执行:

        # yum安装
        yum install -y nvidia-container-toolkit nvidia-container-runtime
        
        # apt安装
        apt-get install -y nvidia-container-toolkit nvidia-container-runtime
        

        3)配置docker

        nvidia-ctk runtime configure --runtime=docker
        systemctl restart docker
        

        非NVIDIA环境不执行此步骤。

      3. 确保环境中安装driverfirmware,用户可从NVIDIAAscend官网获取正确版本进行安装。安装完成后 Ascend 平台使用npu-smi命令、NVIDIA 平台使用nvidia-smi进行测试,正确显示硬件信息则说明安装正常。

      4. 完成上述操作后,即可使用docker run命令启动容器。

      # Ascend环境启动容器
      docker run --rm --network host \
                 --device /dev/davinci0:/dev/davinci0 \
                 --device /dev/davinci_manager --device /dev/devmm_svm --device /dev/hisi_hdc \
                 -v /usr/local/dcmi:/usr/local/dcmi -v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
                 -v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
                 -ti image:tag
      
      # NVIDIA环境启动容器
      docker run --gpus all -d -ti image:tag
      

      文档捉虫

      “有虫”文档片段

      问题描述

      提交类型 issue

      有点复杂...

      找人问问吧。

      PR

      小问题,全程线上修改...

      一键搞定!

      问题类型
      规范和低错类

      ● 错别字或拼写错误;标点符号使用错误;

      ● 链接错误、空单元格、格式错误;

      ● 英文中包含中文字符;

      ● 界面和描述不一致,但不影响操作;

      ● 表述不通顺,但不影响理解;

      ● 版本号不匹配:如软件包名称、界面版本号;

      易用性

      ● 关键步骤错误或缺失,无法指导用户完成任务;

      ● 缺少必要的前提条件、注意事项等;

      ● 图形、表格、文字等晦涩难懂;

      ● 逻辑不清晰,该分类、分项、分步骤的没有给出;

      正确性

      ● 技术原理、功能、规格等描述和软件不一致,存在错误;

      ● 原理图、架构图等存在错误;

      ● 命令、命令参数等错误;

      ● 代码片段错误;

      ● 命令无法完成对应功能;

      ● 界面错误,无法指导操作;

      风险提示

      ● 对重要数据或系统存在风险的操作,缺少安全提示;

      内容合规

      ● 违反法律法规,涉及政治、领土主权等敏感词;

      ● 内容侵权;

      您对文档的总体满意度

      非常不满意
      非常满意
      提交
      根据您的反馈,会自动生成issue模板。您只需点击按钮,创建issue即可。
      文档捉虫
      编组 3备份