yolov5 利用c++进行模型推理部署详解(openvino,tensoRT)
创始人
2024-03-16 20:00:34
0次
文章目录
- 1. 模型导出为onnx
- 1.1 onnx文件导出
- 1.2 yolov5 onnx文件的导出
- 2. 模型部署框架选择
- 2.1 onnxruntime 推理引擎
- 2.1.1 安装onnxruntime
- 2.1.2 推理实现
- 2.2 openvino 推理引擎
- 2.2.1 安装
- 2.2.2 推理实现
- 2.3 tensorRT 推理引擎
- 2.4 小结
- 3. 图像预处理
- 4. 后处理
- 4.1 获得推理结果
- 4.2 后处理decode box
- 4.3 NMS
- 5. 百度网盘源码
相关内容