mdz/pytorch/donkey_car
guyiyun 3231f3e19f 🔧 refactor: update submodules 2025-06-25 09:34:30 +08:00
..
1_scripts 🎉 feat: initialize modelzoo_v3.7.1 2024-12-31 15:13:58 +08:00
2_compile 🔧 refactor: add .gitkeep files 2025-01-21 15:59:36 +08:00
3_deploy 🔧 refactor: update submodules 2025-06-25 09:34:30 +08:00
weights 🎉 feat: initialize modelzoo_v3.7.1 2024-12-31 15:13:58 +08:00
download.ps1 🔧 refactor: remove files of onnxruntime and update download scripts 2025-01-21 16:08:28 +08:00
download.sh 🔧 refactor: remove files of onnxruntime and update download scripts 2025-01-21 16:08:28 +08:00
readme.md 📜 docs: update readme.md 2025-04-18 13:56:53 +08:00

readme.md

donkey_car

version author
metrics speed
模型清单
OS

下载

一键下载开发流程中所需的各种文件,包括编译使用的量化校准集、运行时工程的依赖库,以及输入输出文件。

💡 推荐使用linux版下载脚本其wget包含断网自动重连功能不会出现下载文件遗漏情况。

windows

📌 第一次使用请在C盘根目录下新建icraft_auth.txt,保存下载站账号密码,以换行符分隔

需要事先下载windows版本wget

(若点击以下链接后未直接下载,请选择 1.20.3 版本下的对应系统链接进行下载)

x86系统wget下载 x64系统wget下载

使用时需要将wget.exe的路径作为命令行参数传入注意不是exe的父文件夹目录而是包含wget.exe的完整绝对路径

不下载Deps./download.ps1 "PATH_TO_WGET_EXE"

如果您是第一次使用我们的模型库,请下载包括工程依赖库的所有文件:./download.ps1 "PATH_TO_WGET_EXE" -d

💡 下载过程中可能因网络问题出现中断情况,需 自行重新运行 下载脚本。

linux

📌 第一次使用,请在/usr根目录下新建icraft_auth.txt,保存下载站账号密码,以换行符分隔

为确保文件格式正确,请在运行脚本前安装格式转换工具dos2unix,并执行格式转换命令:

sudo apt-get install dos2unix
dos2unix /usr/icraft_auth.txt
dos2unix ./download.sh

如果您是第一次使用我们的模型库,请下载包括工程依赖库的所有文件:./download.sh -d

如果之前已经在使用别的模型时下载过Deps依赖库可以直接将其中的thirdparty部分复制到路径3_deploy/Deps,只需下载量化校准集和输入输出文件即可:./download.sh

🌟 Tips

  • 若想要直接获取原始weights和导出保存的模型可分别前往 weightsfmodels 网页上根据框架及模型名寻找并下载。

0. 文件结构说明

AI部署模型需要以下几部分文件

  • 0_donkey_car >模型原始工程,需要自行下载
  • weights >存放原始权重,需要自行下载
  • 1_scripts >若干脚本用于保存Icraft编译器需要的模型、编译后仿真等功能
  • 2_compile >Icraft编译器编译模型时所需要的文件
  • 3_deploy >将Icraft编译器编译出的模型部署到硬件时需要的c++工程

1. python工程准备

1. 模型来源:

2. 保存模型

目的将模型保存成可以被Icraft编译器编译的形态

1根据模型来源中的地址

下载原始weights存放于 /weights文件夹中

注意:
  • 有时开源的weights url可能会变更。如果上述weights url失效请根据原工程相应的branch以及commit版本寻找正确的下载链接
  • 若上述weights url永久失效请联系本模型库相关人员获取权限下载
2根据模型来源中的地址下载指定commit id版本的源代码选择对应的donkey_car文件,放入目录下并将名称设置改0_sac_donkey_car

3进入1_scripts执行保存模型脚本根据该文件夹下的install.md进行环境配置

# 在此模型根目录
cd 1_scripts
python 1_save.py

1_scripts提供脚本说明

  • 环境要求Icraft编译器对导出框架模型时使用的框架版本有要求。即以下脚本中所有导出模型的脚本1_save.py ,必须在要求的框架版本下执行,其他脚本不限制。要求的版本:

    • pytorch支持pytorch1.9.0、pytorch2.0.1两个版本的原生网络模型文件(.pt格式以及pytorch框架保存为onnxopset=17格式的模型文件.onnx格式
    • tensorflow1.15
    • paddle仅支持PaddlePaddle框架保存为onnxopset=11格式的模型文件.onnx格式不支持框架原生网络模型文件
    • darknet支持Darknet框架原生网络模型GitHub - pjreddie/darknet: Convolutional Neural Networks
  • 0_infer.py >可以推理一张图并得到最终结果,模型原始权重会从 /weights 中寻找,需要您预先下载

  • 1_save.py >保存模型与相关输入保存好的用于Icraft编译器的模型以及相关输入输出会存放在 /3_deploy

    由于会使用到qtset相关文件请提前参照2.3下载对应qtset文件

2.使用Icraft编译器编译模型

目的: 使用Icraft编译器将上一步保存好的框架模型转化为硬件可部署模型

  • 1相关命名说明

    1fmodelframe model >用于Icraft编译器的框架模型

    2imodelicraft model >用Icraft编译器编译出的模型

    3qtsetQuantitative Calibration Set >Icraft编译器所需的量化校准集

  • 2确认已安装正确的icraft版本

    检查方法打开cmd运行icraft --version

    若已正常安装则会显示当前icraft版本例如

    Icraft 版本:
     * 3.7.1
    
    CLI 版本:
    3.7.0.0-a90988f(2412231401)
    
  • 3执行编译:

    /2_compile目录下执行编译:

     icraft compile config/ae.toml
    
    如果过程顺利,将得到 icraft model以 `.json` graph`.raw`param的格式保存
    
    其中包括编译各阶段产生的中间结果模型和最终用于片上部署的BY模型直接被保存到:  `3_deploy/modelzoo/donkey_car/imodel`
    

3. 部署模型

部署环境检查

  • 以root账户登录片上系统terminalssh或串口皆可模型库默认的模型存放路径为以下目录如果没有请预先创建
/home/fmsh/ModelZoo/
  • 检查板上环境是否正确:
    1. 查看环境变量,指令: icraft --version

      看打印信息是否如下:

      Icraft 版本:
      * v3.7.1
      
      CLI 版本:
      3.7.0.0-a90988f(2412231401)
      
    2. 若是,在任意目录下输入icraft-serve即可打开server

    3. 检查icraft和customop安装包版本是否为arm64

      # 检查icraft安装包版本
      dpkg -l | grep icraft
      # 检查customop安装包版本
      dpkg -l | grep customop
      

      如果依次显示如下信息,则安装版本正确:

      ii  icraft                         3.7.1                             arm64        This is Icraft for arm64
      ii  customop                       3.7.1                             arm64        This is Icraft CustomOp for arm64
      
    4. 如果环境配置有误,请参考Part 1_1 2.3.1 片上系统环境 编译环境准备进行部署环境配置。

    5. 根据此模型使用的硬算子,选择合适的位流,并在板上安装,所用硬算子及可选位流版本可参见本说明文档起始处的状态徽章,位流下载及安装说明请参考1/4) 其他下载资源

c++ runtime:

目的编译c/c++可执行程序在AI硬件上执行模型前向推理

模型库以ubuntu操作系统为例

  1. 编译环境准备

    • os: ubuntu20.04
    • cmake>=3.10
    • compiler: aarch64-linux-gnu-g++/aarch64-linux-gnu-gcc
  2. 版本依赖下载

    此依赖主要包括icraft 运行时以及一些其他c++依赖例如opencv等用于实现模型的部署。如果此前已经存在此版本的依赖可以不必重新下载。

    cd 3_deploy/Deps
    #window第一次使用请新建"C:\icraft_auth.txt",保存下载站账号密码,以换行符分割
    python download.py
    #linux第一次使用请新建"/usr/icraft_auth.txt",保存下载站账号密码,以换行符分割
    ./download.sh
    

    C++ 主要版本依赖已存放在\3_deploy\modelzoo\donkey_car\onnxruntime

    相关文件:https://download.fdwxhb.com/data/04_FMSH-100AI/100AI/04_modelzoo/modelzoo_pub/pkgs/onnxruntime.zip

  3. 编译c++程序

    #在3.1所需的linux编译环境中
    cd 3_deploy/modelzoo/donkey_car/build_arm
    cmake ..
    make -j
    

    ort_run是onnx_run工程的编译结果运行前需要手动把onnxruntime\lib\aarch64文件夹下的libonnxruntime.so, libonnxruntime.so.1.17.1复制到运行环境中,例如 usr/lib下

    已由1_scripts文件中1_save.py生成可根据需要进行替换,生成方式:

     # 仅测试时间python中随机生成输出
    obs_onnx = torch.randn(1,132,dtype=torch.float32)
    obs_onnx.tofile("obs_onnx.ftmp")
    
     # 最后手动放入对应3_deploy/modelzoo/donkey_car/io/ppo目录中
    
  4. 执行程序

    运行前需要手动把donkey_car\3_deploy\modelzoo\donkey_car\onnxruntime\lib\aarch64下的libonnxruntime.so, libonnxruntime.so.1.17.1复制到运行环境中,例如 usr/lib下

    cd /home/fmsh/ModelZoo/modelzoo/donkey_car/build_arm
    chmod 777 *
    ./main
    

    在终端查看打印的结果

4. 模型性能记录

npu+onnxruntime-c在板上运行时间

donkey_car input shape hard time
ae [1, 3, 80, 160] npu(16bit): 6ms
sac [1, 2, 64, 64] onnx: 0.55ms