• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

pytorch 38 对tensorRT、openvino、onnxruntimefp32、fp16推理速度进行对比

武飞扬头像
万里鹏程转瞬至
帮助1

tensorRT与openvino部署模型有必要么?本博文对tensorRT、openvino、onnxruntime推理速度进行对比,分别在vgg16、resnet50、efficientnet_b1和cspdarknet53四个模型进行进行实验,对于openvino和onnxruntime还进行了cpu下的推理对比。对比囊括了fp32、fp16两种情况。在float32下通过实验得出:openvino GPU < onnxruntime CPU << openvino CPU < onnxruntime GPU <= tensorRT GPU。
得出结论:
1、在cpu上因该使用openvino部署,加速效果明显。
2、在gpu上可以适当考虑tensorRT部署,有一定加速效果(对于计算密集的模型加速效果明显);

在fp16下测试,情况与fp32差异较大。速度排序为: onnxruntime CPU < openvino CPU <= openvino GPU < onnxruntime GPU < tensorR GPU。
可以看出在fp16下,onnxruntime完全没有加速效果;openvino有轻微加速效果,比onnxruntime CPU要强;而tensorRT加速效果明显,相比于float32速度提升了1/3~2/5。

并进行显存占用对比实验,实验数据如下,
fp32下vgg占用590M,resnet50占用162M,efficientnet_b1占用130M,cspdarknet53占用238M;
fp16下vgg占用374M,resnet50占用92M,efficientnet_b1占用68M,cspdarknet53占用156M

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgcgbbf
系列文章
更多 icon
同类精品
更多 icon
继续加载