当前位置:主页 > 其他相关 >

速看:ONNX模型部署利器ONNXRUNTIME框架

发布时间: 2023-06-17 23:19:43 来源:面包芯语


(资料图片仅供参考)

GPU版本

然后配置库目录:

最后配置链接器,我的是支持CUDA版本,配置如下:

最后把DLL文件copy到编译生成的可执行文件同一个目录下,直接运行即可。C++推理,简单说分为四步,首先引入包含文件支持,再初始化推理会话对象Session,预处理图像,然后执行推理,最后完成后处理即可。

以ResNet18模型为例,导出ONNX格式,基于ONNXRUNTIME推理效果如下:

扫码查看OpenCV+OpenVIO+Pytorch系统化学习路线图

标签:

为您推荐

随机阅读
  • 最新资讯
  • 热门资讯