-
Notifications
You must be signed in to change notification settings - Fork 27
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
rvm onnx推理的代码可以跑fp16的模型么? #15
Comments
目前只能跑fp32的模型 |
@DefTruth 好的,谢谢大佬回复。我还有一个疑问,就是rec的四个输出,会作为下一次的输入,我看了一下代码,是拿到所有output之后,再用memcpy拷贝到输入内存,这样的话rec四个输入的拷贝操作是不是中间会经过cpu,而不是通过gpu直接拷贝的? |
@DefTruth 因为我在3070上测试,0.25下采样率,1080p的视频,纯推理只有50fps,和作者列出的推理性能差了一半,我觉得应该是这个问题 |
是的,目前的处理逻辑,确实是会经过cpu做拷贝。你可以参考下这个讨论来修改,避免cpu的数据拷贝: |
好的,谢谢大佬 |
我也想知道,如何实现fp16的模型的推理,大佬能讲一下思路吗 |
具体的话,我没试过。不过可以看看我整理的资料,里边有关于fp16的 |
谢谢你的回复,我使用下面方法:Ort::Value::CreateTensor(memory_info_handler, |
大佬,你好,纯CPU推理的话(I5 的CPU),fps有多少呢?我看另外一个issue也有提到过类似的问题: |
我跑视频,加载完模型之后就阻塞住了
The text was updated successfully, but these errors were encountered: