-
Notifications
You must be signed in to change notification settings - Fork 27
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
8线程,使用cpu推理,约0.5s一帧,使用GPU推理,约0.15s一帧,请问这个速度正常吗,感觉比原版python的慢好多 #14
Comments
#15 看这个讨论,可能是由于cpu数据传输的原因 |
您好,大佬想请教一下,作者原文RVM 在4k视频可以达到76fps,我想在3090上达到最快速度推理,基于咱们这个库如何改进呢,这里推理包括数据加载方式、数据预处理以及模型推理得到输出值alpha、fgr,不包含后续合成 |
在服务端的话,感觉不是很有必要用c++,可以看我fork的分支,里面有个python的推理: 需要用到onnxruntime的gpu版本,并且做好iobinding,onnxruntime-gpu python服务端的配置可以看我写的文章: 如果你想用c++版本,我具体也没试过做这些优化,业余精力有限,主要还是在研究算法本身。但是你可以从2点入手:
|
大佬,目的是使用C++推理,1.使用TensorRT会不会增加推理速度呢,2.我看你回复其他人问题,有提到rxi是在cpu操作的, |
|
你能提供一些思路吗,该如何操作,才能实现真正的实时,期待大佬的回复 |
预处理肯定是要在GPU上做,这个模型的逻辑是循环,要提高GPU利用率是最优解法 并不是模型转换 |
很抱歉~ 最近工作太忙了,回复稍晚。这位大佬的思路是对的,onnxruntime-gpu可以考虑使用io_binding把张量放在gpu进行处理,避免context的io,我之前写了一份python版本的代码,你可以参考一下,但是c++的没时间搞了: |
恩恩,我参照研究一下,谢谢大佬 |
大佬,我按照转换代码转了,静态转onnx测试没有问题,动态的转onnx,采用这个推理( https://github.com/DefTruth/RobustVideoMatting/blob/onnx/inference_onnx.py |
同问,想知道纯CPU推理的话,FPS能有多少?可以做实时抠图吗 |
No description provided.
The text was updated successfully, but these errors were encountered: