![]() |
||
---|---|---|
.. | ||
1_scripts | ||
2_compile | ||
3_deploy | ||
assets | ||
weights | ||
download.ps1 | ||
download.sh | ||
readme.md |
readme.md
ppyoloe
下载
✨ 一键下载开发流程中所需的各种文件,包括编译使用的量化校准集、运行时工程的依赖库,以及输入输出文件。
💡 推荐使用linux版下载脚本,其wget包含断网自动重连功能,不会出现下载文件遗漏情况。
windows
📌 第一次使用,请在C盘根目录下新建icraft_auth.txt
,保存下载站账号密码,以换行符分隔
需要事先下载windows版本wget:
(若点击以下链接后未直接下载,请选择 1.20.3 版本下的对应系统链接进行下载)
使用时需要将wget.exe的路径作为命令行参数传入,注意不是exe的父文件夹目录,而是包含wget.exe的完整绝对路径:
不下载Deps:./download.ps1 "PATH_TO_WGET_EXE"
如果您是第一次使用我们的模型库,请下载包括工程依赖库的所有文件:./download.ps1 "PATH_TO_WGET_EXE" -d
💡 下载过程中可能因网络问题出现中断情况,需 自行重新运行 下载脚本。
linux
📌 第一次使用,请在/usr根目录下新建icraft_auth.txt
,保存下载站账号密码,以换行符分隔
为确保文件格式正确,请在运行脚本前安装格式转换工具dos2unix
,并执行格式转换命令:
sudo apt-get install dos2unix
dos2unix /usr/icraft_auth.txt
dos2unix ./download.sh
如果您是第一次使用我们的模型库,请下载包括工程依赖库的所有文件:./download.sh -d
如果之前已经在使用别的模型时下载过Deps依赖库,可以直接将其中的thirdparty部分复制到路径3_deploy/Deps
,只需下载量化校准集和输入输出文件即可:./download.sh
🌟 Tips:
0. 文件结构说明
AI部署模型需要以下几部分文件
- 0_ppyoloe >模型原始工程,需要自行下载
- weights >存放原始权重,需要自行下载
- 1_scripts >若干脚本,用于保存Icraft编译器需要的模型、编译后仿真等功能
- 2_compile >Icraft编译器编译模型时所需要的文件
- 3_deploy >将Icraft编译器编译出的模型部署到硬件时需要的c++工程
1. python工程准备
1. 模型来源:
- code:https://github.com/PaddlePaddle/PaddleDetection.git
- branch:release/2.6
- commit_id:79f77ba
- weights:https://paddledet.bj.bcebos.com/models/ppyoloe_plus_crn_s_80e_coco.pdparams
2. 保存模型
目的:将模型保存成可以被Icraft编译器编译的形态
1)根据模型来源中的地址:https://paddledet.bj.bcebos.com/models/ppyoloe_plus_crn_s_80e_coco.pdparams ,下载原始weights,存放于 /weights
文件夹中
- 有时开源的weights url可能会变更。如果上述weights url失效,请根据原工程相应的branch以及commit版本寻找正确的下载链接
- 若上述weights url永久失效,请联系本模型库相关人员获取权限下载
另外在此之前需要安装paddlepaddle的环境
conda create -n paddle_env python=3.8.15
conda activate paddle_env
python -m pip install paddlepaddle==2.4.1 -f https://www.paddlepaddle.org.cn/whl/windows/mkl/avx/stable.html
# 在此模型根目录
mkdir 0_ppyoloe
git clone -b release/2.6 https://github.com/PaddlePaddle/PaddleDetection.git 0_ppyoloe
cd 0_ppyoloe
git checkout 79f77ba
conda activate paddle_env
# 安装其他依赖
pip install -r requirements.txt
# 编译安装paddledet
python setup.py install
# 安装onnxruntime等
pip install paddle2onnx
pip install onnx==1.8.1
pip install onnxruntime-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple some-package
可参考上述安装教程
可能遇到的环境bug:
原因:pillow版本太⾼,需要降低为9.5.0
pip uninstall Pillow
pip install Pillow==9.5.0
3)进入1_scripts执行保存模型脚本
该目录下脚本中参数路径,通过部分脚本各自代码最开始几行的全局变量控制。
由于1_scripts中各个脚本所使用的推理输入数据来自2_compile/qtset中,请先执行最开头的下载脚本,下载好量化校准集
# 在此模型根目录
cd 1_scripts
python 1_save.py -c ./configs/ppyoloe_plus_crn_s_80e_coco.yml --output_dir=output_inference
paddle2onnx --model_dir output_inference/ppyoloe_plus_crn_s_80e_coco --model_filename model.pdmodel --params_filename model.pdiparams --opset_version 11 --save_file ../2_compile/fmodel/ppyoloe_plus_crn_s_80e_coco_640x640.onnx
1_scripts提供脚本说明:
-
环境要求:Icraft编译器对导出框架模型时使用的框架版本有要求。即以下脚本中所有导出模型的脚本
1_save.py
,必须在要求的框架版本下执行,其他脚本不限制。要求的版本:- pytorch:支持pytorch1.9.0、pytorch2.0.1两个版本的原生网络模型文件(.pt格式),以及pytorch框架保存为onnx(opset=17)格式的模型文件(.onnx格式)
- paddle:仅支持PaddlePaddle框架保存为onnx(opset=11)格式的模型文件(.onnx格式),不支持框架原生网络模型文件
- darknet:支持Darknet框架原生网络模型GitHub - pjreddie/darknet: Convolutional Neural Networks
-
0_infer.py >可以推理一张图并得到最终结果,模型原始权重会从
/weights
中寻找,需要您预先下载python 0_infer.py -c ./configs/ppyoloe_plus_crn_s_80e_coco.yml
-
1_save.py >保存模型,保存好的用于Icraft编译器的模型,会存放在
/2_compile/fmodel
保存模型时的修改点:
- 固定模型输入batch为1
#fix_shape_get_infer_cfg_and_input_spec 中的 # L105 image_shape = [1,3,640,640]
- 解耦分类头和检测头,修改模型前向
# 解耦分类头和检测头 from ppdet.modeling.heads.ppyoloe_head import PPYOLOEHead def my_forward_eval(self, feats): cls_dec_list = [] for i, feat in enumerate(feats): b, _, h, w = feat.shape l = h * w avg_feat = F.adaptive_avg_pool2d(feat, (1, 1)) cls_logit = self.pred_cls[i](self.stem_cls[i](feat, avg_feat) + feat) reg_dist = self.pred_reg[i](self.stem_reg[i](feat, avg_feat)) cls_dec_list.append(cls_logit) cls_dec_list.append(reg_dist) return cls_dec_list PPYOLOEHead.forward_eval=my_forward_eval
- 去除后处理
from ppdet.modeling.architectures.yolo import YOLOv3 def my_forward(self): body_feats = self.backbone(self.inputs) neck_feats = self.neck(body_feats, self.for_mot) if isinstance(neck_feats, dict): assert self.for_mot == True emb_feats = neck_feats['emb_feats'] neck_feats = neck_feats['yolo_feats'] yolo_head_outs = self.yolo_head(neck_feats) return yolo_head_outs YOLOv3._forward = my_forward
-
2_save_infer.py >用修改后保存的模型做前向推理,验证保存的模型与原模型是否一致
python .\2_save_infer.py -c ./configs/ppyoloe_plus_crn_s_80e_coco.yml
2.使用Icraft编译器编译模型
目的: 使用Icraft编译器将上一步保存好的框架模型转化为硬件可部署模型
-
1)相关命名说明:
1)fmodel:frame model >用于Icraft编译器的框架模型
2)imodel:icraft model >用Icraft编译器编译出的模型
3)qtset:Quantitative Calibration Set >Icraft编译器所需的量化校准集
-
2)确认已安装正确的icraft版本
检查方法:打开cmd运行:
icraft -v
若已正常安装则会显示当前icraft版本,例如:
Icraft 版本: * 3.7.1 CLI 版本: 3.7.0.0-a90988f(2412231401)
-
3)执行编译: 在
/2_compile
目录下执行编译:icraft compile config/PPyoloe_crn_s_8.toml
如果过程顺利,将在imodel中得到 icraft model(以
.json
(graph).raw
(param)的格式保存) 其中包括编译各阶段产生的中间结果模型和最终用于片上部署的BY模型,直接被保存到: 3_deploy/modelzoo/ppyoloe/imodel
3. 仿真
通过配置3_deploy/modelzoo/ppyoloe/cfg/中yaml文件的sim字段为True实现模型仿真。
imodel:
...
sim: true
...
4. 部署模型
部署环境检查
- 以root账户登录片上系统terminal(ssh或串口皆可),模型库默认的模型存放路径为以下目录,如果没有请预先创建:
/home/fmsh/ModelZoo/
- 检查板上环境是否正确:
-
查看环境变量,指令:
icraft --version
看打印信息是否如下:
Icraft 版本: * v3.7.1 CLI 版本: 3.7.0.0-a90988f(2412231401)
-
若是,在任意目录下输入
icraft-serve
即可打开server -
检查icraft和customop安装包版本是否为
arm64
# 检查icraft安装包版本 dpkg -l | grep icraft # 检查customop安装包版本 dpkg -l | grep customop
如果依次显示如下信息,则安装版本正确:
ii icraft 3.7.1 arm64 This is Icraft for arm64 ii customop 3.7.1 arm64 This is Icraft CustomOp for arm64
-
如果环境配置有误,请参考Part 1_1 2.3.1 片上系统环境 编译环境准备进行部署环境配置。
-
根据此模型使用的硬算子,选择合适的位流,并在板上安装,所用硬算子及可选位流版本可参见本说明文档起始处的状态徽章,位流下载及安装说明请参考1/4) 其他下载资源。
-
c++ runtime:
目的:编译c/c++可执行程序,在AI硬件上执行模型前向推理
模型库以ubuntu操作系统为例:
-
编译环境准备
- os: ubuntu20.04
- cmake>=3.10
- compiler: aarch64-linux-gnu-g++/aarch64-linux-gnu-gcc 编译c++程序
#在3.1所需的linux编译环境中 cd 3_deploy/modelzoo/ppyoloe/build_arm cmake .. make -j
-
执行程序
cd /home/fmsh/ModelZoo/modelzoo/ppyoloe/build_arm chmod 777 * ./ppyoloe ../cfg/ppyoloe.yaml
在io/output中查看结果
5. 精度测试
1. 环境准备
若已准备好环境请跳过此部分
1. 网口调试环境准备(如果已经准备好网口调试环境则看下一条)
-
安装ssh
-
查看或配置板子ip
-
使用串口连接板子
-
vim /etc/rc.local
-
查看或设置ip
#!/bin/bash ifconfig eth0 192.168.125.171 netmask 255.255.255.0 systemctl start sshd
-
-
修改本地网络适配器配置
参考配置
-
ipv4地址:
192.168.125.2
-
子网掩码:
255.255.255.0
-
默认网关:
192.168.125.1
-
连接速度与双工:100mbps全双工
-
-
使用网口或串口进入板上系统打开server
上位机:
ssh root@192.168.125.171
板上:
确保位于root账户下,执行:
icraft-serve
- 请确保在root账户下执行上述命令
- 设备成功打开示意图
root@U:~# icraft-serve [02/22/24 02:02:00.388] [I] Using port : 9981 [02/22/24 02:02:00.388] [I] synchronous mode [02/22/24 02:02:00.388] [I] [irpc::port::tcp::_waitNewConn] wait for new connection
如果能正确运行则可以继续下一步。
2.编译环境准备
-
os: windows
2. 测试说明
-
如果使用了DetPost硬算子(如果未使用则忽略此条)
-
1)修改customop toml
customop toml 即 config\customop\xxmodel.toml
需要将该文件中的
thr_f
配置成0.001[ImageMake] no_imkpad = 0 [DetPost] thr_f = 0.001 # 阈值 cmp_en = 1 # 是否做阈值比较 groups = 3 anchor_num = 1 position = 0
-
2)重新进行模型编译
icraft compile config/PPyoloe_crn_s_8.toml
由于测精度程序由上位机控制,生成的imodel不用再复制到板子中
-
-
数据集准备
测试数据集下载:coco2017val
模型测试使用COCO2017数据集的Val部分,测试图片存放于
3_deploy\modelzoo\ppyoloe\io\input
及3_deploy\modelzoo\ppyoloe\io\cocoval_2017.txt
中如需测试其他数据集,需自行将图片存放于
3_deploy\modelzoo\ppyoloe\io\input
,并准备对应的input.txt -
修改 运行时的yaml配置文件:
运行时需要配置一些模型路径,输入数据,后处理参数等,其配置文件在
3_deploy/modelzoo/ppyoloe/cfg/
测试时使用:
ppyoloe_test.yaml
需要修改:
- imodel中参数:修改精度测试所用模型文件路径
dir
,根据所使用板子ip设置ip
。 - dataset中参数:更改自己的精度测试数据集路径。
- param中参数:如果模型没有重训,则无需更改,若 重训则需要修改对应部分参数。
- imodel中参数:修改精度测试所用模型文件路径
-
编译、执行运行时程序
cd 3_deploy/modelzoo/ppyoloe mkdir build_win cd build_win cmake .. cmake --build . --config Release ./Release/ppyoloe.exe ../cfg/ppyoloe_test.yaml
注意:如果使用visualstudio打开sln进行调试,需要右键工程-属性-调试-命令参数中配置
./Release/ppyoloe.exe ../cfg/ppyoloe_test.yaml
-
使用metrics测试脚本,将保存的测试结果计算出精度指标
metrics测试脚本使用与配置说明:
精度测试脚本位于:box_mAP · spiger/benchmark - 码云 - 开源中国 (gitee.com)
需要配置:
parser.add_argument('txtDir', help='onboard txt results path')
#txtDir即上述精度测试结果保存路径
5. 模型性能记录
ppyoloe | input shape | hard time | qt_strategy | 精度 |
---|---|---|---|---|
float | [1,3,640,640] | - | - | ap50-95:0.437 |
8bit | [1,3,640,640] | 22.35952ms | kld-pt | ap50:0.552; ap50-95:0.385 |
16bit | [1,3,640,640] | 41.37555ms | kld-pt | ap50:0.584; ap50-95:0.411 |