入门指南
这个项目演示了如何使用 TensorRT C++ API 运行 YoloV8 的 GPU 推理。它使用了我的另一个项目 tensorrt-cpp-api 在后台运行推理,因此请确保您熟悉该项目。
先决条件
- 在 Ubuntu 20.04 上测试并工作
- 安装 CUDA,说明在这里。
- 推荐 >= 11.8
- 安装 cuDNN,说明在这里。
- 推荐 >= 8
sudo apt install build-essential
sudo apt install python3-pip
pip3 install cmake
- 安装支持 cuda 的 OpenCV。要从源代码编译 OpenCV,请运行提供的
build_opencv.sh
脚本