[C++][cmake]使用C++部署yolov13目标检测的tensorrt模型支持图片视频推理windows测试通过

发布于:2025-06-28 ⋅ 阅读:(16) ⋅ 点赞:(0)

最近悄悄出了yolov13框架,标志着目标检测又多了一个检测利器,于是尝试在windows下部署yolov13的tensorrt模型,并最终成功。

重要说明:安装环境视为最基础操作,博文不做环境具体步骤,可以百度查询对应安装步骤即可。

测试通过环境:

vs2019

windows 10 RTX2070 8G显存

cmake==3.30.1

cuda11.8.0+cudnn8.9.7

Tensorrt==8.6.1.6

opencv==4.9.0

anaconda3+python3.10

torch==2.5.1+cu124

部署过程:

部署最费时间是安装环境。首先确保自己电脑是win10或者win11并确保电脑有一块nvidia显卡。查看自己显卡就是打开任务管理器(win10是ctrl+alt+delete,win11是ctrl+shift+ESC),在性能里面查看,如下图

785b7ad428034221a4ff1a167855b167.png

如果看到GPU0和GPU1等等表示有显卡,但是需要看到NVIDIA字样才能表示有独立显卡。其他是AMD显卡或者核心显卡,这些都是不能用于cuda的,也就是电脑不支持tensorrt加速和cuda使用的。

首先需要大家安装好VS2019或者VS2022,还有如下环境,由于安装包很多需要去官方搜索下载,需要自己安装,其中版本可以有区别,但是如果快速复现这个项目,最好安装位一致版本这样更快复现出项目。

cmake==3.30.1

cuda11.8.0+cudnn8.9.7

Tensorrt==8.6.1.6

opencv==4.9.0

anaconda3+python3.10

torch==2.5.1+cu124

假设大家安装好上面的环境。下面具体怎么部署,首先去yolov13官方仓库下载yolo13模型,这样下载yolov13n.pt

然后将pt模型放进项目里面,切换自己安装好的yolov13环境里面并切换到项目目录,使用下面命令直接转换

yolo export model=yolov13n.pt format=onnx dynamic=False opset=12

得到onnx模型以后我们开始编译源码。

首先我们修改CMakeLists.txt文件,将源码里面opencv路径和tensorrt路径修改成自己路径

# Find and include OpenCV

set(OpenCV_DIR "D:\\lufiles\\opencv490\\build\\x64\\vc16\\lib")

# Set TensorRT path if not set in environment variables

set(TENSORRT_DIR "D:\\lufiles\\TensorRT-8.6.1.6")

然后执行

mkdir build

cd build

cmake ..

之后去build文件夹找到sln文件用vs打开它,然后选择x64 release,并选中ALL_BUILD右键单击选择生成

之后build\Release文件夹下面有个yolov13-tensorrt.exe生成。之后我们开始转换onnx模型到tensorrt模型,执行命令

trtexec --onnx=yolov13n.onnx --saveEngine=yolov13n.engine --fp16

稍等20多分钟后会自动生成yolov13n.engine文件.

下面我们开始测试图片

yolov13-tensorrt.exe yolov13n.engine "test.jpg"

然后测试视频

yolov13-tensorrt.exe yolov13n.engine "car.mp4"

特别注意:

  1. tensorrt模型依赖于硬件,所以不是通用的需要在电脑重新转换,否则可能无法使用;
  2. 如需要二次开发,需要读懂调用代码,需要有一定c++基础才行,否则无法进行二次开发。

网站公告

今日签到

点亮在社区的每一天
去签到