3753
- 收藏
- 点赞
- 分享
- 举报
如何在海思 Hi3519AV100上移植YOLOV3 (1)
HI3519AV100包含了深度学习的NNIE内核,算力为2TOPS,是目前同等算力下性价比最好的平台之一。公司产品已经可以实时运行YOLO V3,写这个系列的原因在于帮助我们开放平台下的开发者用户及公司新入职员工的使用培训,可以更快速的使用开发板进行模型的部署。
打个小广告:
海思hi3519av100开发板链接:
https://item.taobao.com/item.htm?spm=a230r.1.14.117.4afe75a61WreAX&id=586610485052&ns=1&abbucket=1#detail
除了SDK与底板图纸之外我们提供了EMMC文件配置和摄像头采集到RFCN深度神经网络的物体识别和HDMI显示的完整代码,帮助开发者快速部署模型。
此篇为开篇,主要介绍都需要哪些关联的软件需要安装,环境怎么去搭建。
首先说明的是海思的文档中其实写的特别特别详细,大家可以去看详细的文档,我们重新写这个的目的是减少时间,只把关键的几个点写出来,如果怕安装出问题,可以阅读海思的详细文档。
海思相关的文档在 ..\Hi3519A V100R001C02SPC010\ReleaseDoc\zh\01.software\board\SVP 中的 “HiSVP 开发指南.pdf”。
Hi3519A目前支持的深度学习框架只有caffe,那两个文件是必不可少的:训练完成后 *.caffemodel,*.prototxt是必须要有的。
海思提供了一个mapper工具和一个simulation工具可以对模型进行量化和仿真。这两个工具都在海思提供的 RuyiStudio中,所以后面使用的软件就是RuyiStudio,以下简称RS。
RS是不需要安装的,直接解压就可以用,但是需要提前装好很多配置环境。
提前需要装的部分如下:
1. CUDA
2. CuDnn
3. OpenCV
4. wget
5. MinGW-w64
6. Msys
7. Python3.5
8. Caffe
9. VisualStudio2015
此部分软件为了方便使用我们会整理后上传到百度网盘。到时连接会贴到此博文中。
另外一点是如果不想出错就完全按照海思要求安装版本。
环境配置的过程后面有时间的时候会补充进来,着急用的朋友就看海思的文档吧。
---- YOLO V3移植-----
模型移植之前我们首先要做几件事情,
1)首先得有自己的模型或者用官方提供的模型也可以;
2)模型导入到RS中,做模型的mapper,生成 *.wk文件;
3)做mapper后的模型文件的仿真验证;
4)部署到板卡中运行。
一般在SVP中已经有YOLO V3的demo,至少我们提供的板卡上是有这个文件的。
直接在RS中打开工程文件,SDK中的路径为
..\Hi3519A V100R001C02SPC010\SVP_PC\HiSVP_PC_V1.2.0.5\software\sample_runtime
工程名称为.cproject .project
快速上手:
1)工程文件中首先找到*.cfg文件,在 sample_runtime\data\detection\yolov3 中,
此文件用来配置caffemodel转 *.wk 文件前的基本配置。
查看方式:右键—open with—mapper configuration editor
三个部分组成:
1) Input Setting:
Caffemodel: ./../data/detection/yolov3/model/yolov3.caffemodel 训练好的模型
Marked_prototxt: ./../data/detection/yolov3/model/yolov3.prototxt mapper验证过的模型,海思会验证网络层是否满足转化要求,定义了几个可转化的网络层,自定义的层需要自己转,这部分后面会专门写一章来说明。
在上面按钮中点击“Mark”可以调出网络可视化窗口。
Output_wk_name: ./../data/detection/yolov3/inst/**** 输出 *.wk 文件的路径
2) mapper setting
mapper过程需要的配置参数: 这里列出来对应到说明文档中的页数,详细介绍可以查看说明材料。
Compile_mode: p123 高精度、低带宽、自定义
Log_level: p125
Align_bytes(align_size):p143
Batch_num:p123
Sparse_rate:p123 模型稀疏率
3)data
定义了模型量化过程中的参考图片等内容。其中一个比较重要的是输入图片格式和RGB颜色方式一定要选对,不然模型出来后板卡上跑不出来或识别效果特别差。
Image_type: p122 输入图片类型
RGB_order:p125 RGB色彩方式
Image_list: p121 ../data/detection/yolov3/image_***_list.txt
Norm_type: p122
Mean_file: p123
配置好cfg后就可以点击 make WK按钮就可以生成 *.wk文件了。
底部状态栏里会显示出模型生成成功的信息。
此篇讲到的模型mapper的过程,会增加一些细节性的说明和截图进行补充,再把关联的安装文件上传到云盘供下载。
下一篇会写如何在RS中进行模型功能仿真。
打个小广告:
海思hi3519av100开发板链接:
https://item.taobao.com/item.htm?spm=a230r.1.14.117.4afe75a61WreAX&id=586610485052&ns=1&abbucket=1#detail
除了SDK与底板图纸之外我们提供了EMMC文件配置和摄像头采集到RFCN深度神经网络的物体识别和HDMI显示的完整代码,帮助开发者快速部署模型。
此篇为开篇,主要介绍都需要哪些关联的软件需要安装,环境怎么去搭建。
首先说明的是海思的文档中其实写的特别特别详细,大家可以去看详细的文档,我们重新写这个的目的是减少时间,只把关键的几个点写出来,如果怕安装出问题,可以阅读海思的详细文档。
海思相关的文档在 ..\Hi3519A V100R001C02SPC010\ReleaseDoc\zh\01.software\board\SVP 中的 “HiSVP 开发指南.pdf”。
Hi3519A目前支持的深度学习框架只有caffe,那两个文件是必不可少的:训练完成后 *.caffemodel,*.prototxt是必须要有的。
海思提供了一个mapper工具和一个simulation工具可以对模型进行量化和仿真。这两个工具都在海思提供的 RuyiStudio中,所以后面使用的软件就是RuyiStudio,以下简称RS。
RS是不需要安装的,直接解压就可以用,但是需要提前装好很多配置环境。
提前需要装的部分如下:
1. CUDA
2. CuDnn
3. OpenCV
4. wget
5. MinGW-w64
6. Msys
7. Python3.5
8. Caffe
9. VisualStudio2015
此部分软件为了方便使用我们会整理后上传到百度网盘。到时连接会贴到此博文中。
另外一点是如果不想出错就完全按照海思要求安装版本。
环境配置的过程后面有时间的时候会补充进来,着急用的朋友就看海思的文档吧。
---- YOLO V3移植-----
模型移植之前我们首先要做几件事情,
1)首先得有自己的模型或者用官方提供的模型也可以;
2)模型导入到RS中,做模型的mapper,生成 *.wk文件;
3)做mapper后的模型文件的仿真验证;
4)部署到板卡中运行。
一般在SVP中已经有YOLO V3的demo,至少我们提供的板卡上是有这个文件的。
直接在RS中打开工程文件,SDK中的路径为
..\Hi3519A V100R001C02SPC010\SVP_PC\HiSVP_PC_V1.2.0.5\software\sample_runtime
工程名称为.cproject .project
快速上手:
1)工程文件中首先找到*.cfg文件,在 sample_runtime\data\detection\yolov3 中,
此文件用来配置caffemodel转 *.wk 文件前的基本配置。
查看方式:右键—open with—mapper configuration editor
三个部分组成:
1) Input Setting:
Caffemodel: ./../data/detection/yolov3/model/yolov3.caffemodel 训练好的模型
Marked_prototxt: ./../data/detection/yolov3/model/yolov3.prototxt mapper验证过的模型,海思会验证网络层是否满足转化要求,定义了几个可转化的网络层,自定义的层需要自己转,这部分后面会专门写一章来说明。
在上面按钮中点击“Mark”可以调出网络可视化窗口。
Output_wk_name: ./../data/detection/yolov3/inst/**** 输出 *.wk 文件的路径
2) mapper setting
mapper过程需要的配置参数: 这里列出来对应到说明文档中的页数,详细介绍可以查看说明材料。
Compile_mode: p123 高精度、低带宽、自定义
Log_level: p125
Align_bytes(align_size):p143
Batch_num:p123
Sparse_rate:p123 模型稀疏率
3)data
定义了模型量化过程中的参考图片等内容。其中一个比较重要的是输入图片格式和RGB颜色方式一定要选对,不然模型出来后板卡上跑不出来或识别效果特别差。
Image_type: p122 输入图片类型
RGB_order:p125 RGB色彩方式
Image_list: p121 ../data/detection/yolov3/image_***_list.txt
Norm_type: p122
Mean_file: p123
配置好cfg后就可以点击 make WK按钮就可以生成 *.wk文件了。
底部状态栏里会显示出模型生成成功的信息。
此篇讲到的模型mapper的过程,会增加一些细节性的说明和截图进行补充,再把关联的安装文件上传到云盘供下载。
下一篇会写如何在RS中进行模型功能仿真。
我来回答
回答3个
时间排序
认可量排序
认可0
认可0
认可0
或将文件直接拖到这里
悬赏:
E币
网盘
* 网盘链接:
* 提取码:
悬赏:
E币
Markdown 语法
- 加粗**内容**
- 斜体*内容*
- 删除线~~内容~~
- 引用> 引用内容
- 代码`代码`
- 代码块```编程语言↵代码```
- 链接[链接标题](url)
- 无序列表- 内容
- 有序列表1. 内容
- 缩进内容
- 图片![alt](url)
相关问答
-
2019-12-02 18:18:40
-
2020-06-02 17:10:37
-
2021-06-02 14:43:22
-
2020-07-06 11:50:22
-
2020-04-01 11:58:06
-
2020-06-03 08:48:20
-
2019-12-28 09:40:51
-
2020-06-01 16:42:35
-
2020-08-10 10:13:17
-
2019-12-04 20:39:02
-
2019-04-02 20:46:57
-
2020-09-23 12:01:43
-
2019-09-18 15:02:33
-
2020-11-04 15:59:17
-
2019-01-12 15:28:48
-
2020-02-27 15:55:00
-
2020-12-22 11:34:49
-
12020-11-09 15:53:48
-
2018-11-30 09:29:13
无更多相似问答 去提问
点击登录
-- 积分
-- E币
提问
—
收益
—
被采纳
—
我要提问
切换马甲
上一页
下一页
悬赏问答
-
5Hi3516CV610 如何使用SD卡升级固件
-
5cat /dev/logmpp 报错 <3>[ vi] [func]:vi_send_frame_node [line]:99 [info]:vi pic queue is full!
-
50如何获取vpss chn的图像修改后发送至vo
-
5FPGA通过Bt1120传YUV422数据过来,vi接收不到数据——3516dv500
-
50SS928 运行PQtools 拼接 推到设备里有一半画面会异常
-
53536AV100的sample_vdec输出到CVBS显示
-
10海思板子mpp怎么在vi阶段改变视频数据尺寸
-
10HI3559AV100 多摄像头同步模式
-
9海思ss928单路摄像头vio中加入opencv处理并显示
-
10EB-RV1126-BC-191板子运行自己编码的程序
举报反馈
举报类型
- 内容涉黄/赌/毒
- 内容侵权/抄袭
- 政治相关
- 涉嫌广告
- 侮辱谩骂
- 其他
详细说明
提醒
你的问题还没有最佳答案,是否结题,结题后将扣除20%的悬赏金
取消
确认
提醒
你的问题还没有最佳答案,是否结题,结题后将根据回答情况扣除相应悬赏金(1回答=1E币)
取消
确认