zyf
1
python3 model_transform.py --model_name yolov5n --model_def …/…/…/yolov5n_torch/yolov5n_jit.pt --input_shapes [[1,3,640,640]] --pixel_format “rgb” --keep_aspect_ratio --mean 0,0,0 --scale 0.0039216,0.0039216,0.0039216 --test_input …/…/…/yolov5n_torch/image/dog.jpg --test_result yolov5n_top_outputs.npz --output_names 1219,1234,1249 --mlir yolov5n.mlir
Traceback (most recent call last):
File “/home/tjl/桌面/tpu-mlir/python/tools/model_transform.py”, line 17, in
from utils.mlir_parser import *
File “/home/tjl/桌面/tpu-mlir/python/tools/utils/mlir_parser.py”, line 12, in
import mlir
ModuleNotFoundError: No module named ‘mlir’
Please Help Me
zwy
2
你好,yolov5的模型编译可以参考这个文档哈YOLOv5 目标检测 | Milk-V
zyf
3
谢谢您!请问这个编译完能否输出图像作为识别结果呢?我看文档里输出的仅仅是一些推理内容。
zwy
4
现在的 demo 输出结果是后处理的 tensor, 没有把 tensor 里的bbox 进行展示,只是把坐标得到了,你用opencv画一下即可。
1 Like
zyf
6
您好,我想请问一下,目前板端部署的模型可以识别多少种物体?为什么狗的图片能识别,换了一张猫的图片就无法识别了呢?目前的问题是只能识别教程里的图片,别的图片都不行。
zwy
7
model_transform.py
–model_name yolov5s
–model_def yolov5s.onnx
–input_shapes [[1,3,640,640]]
–mean 0.0,0.0,0.0
–scale 0.0039216,0.0039216,0.0039216
–keep_aspect_ratio
–pixel_format rgb
–test_input …/image/dog.jpg
–test_result yolov5s_top_outputs.npz
–mlir yolov5s.mlir
这个onnx转MLIR,是指定模型的输入形状为 [1, 3, 640, 640],还有一些预处理的操作,你更换为其他的图片可能会不满足这些处理跟要求。
zyf
10
您好,现在加了摄像头之后可以实时人脸识别,请问我如何做才能实时识别物体呢?
zwy
11
你好,以下是以milkv duo s为例
1.下载GitHub - milkv-duo/duo-buildroot-sdk-v2: Milk-V Duo Official buildroot SDK V2
2.参考此链接的4.2-4.22,sophgo-doc/SG200X/Software_Developers_Manual/SG200x_Software_Developer's_Manual_cn.md at main · sophgo/sophgo-doc · GitHub
注意: defconfig
,要选择 milkv-duos-musl-riscv64-sd
以及将 Sensor settings里面的GC2083选上
3.运行export TPU_REL=1
,然后sudo pip install jinja2
4.编译镜像./build.sh milkv-duos-musl-riscv64-sd
镜像编译完成之后,下载tdl_models/cv181x/yolox_s_coco80_cv181x.cvimodel at main · sophgo/tdl_models · GitHub
然后复制到开发板上,运行sample_vi_od yolox yolox_s_coco80_cv181x.cvimodel
,就可以进行实时物体检测了
不过这个准确度还不是很精确,我们还在调试。