
调用 torch.onnx.export 导出的 onnx 模型
本文旨在解答如何使用 torch.onnx.export 导出的 onnx 模型。
问题:
如何使用 torch.onnx.export 导出的 onnx.pb 模型文件?
解答:
pytorch 模型的输入为 tensor,而 onnx 的输入为 numpy 数组。因此,将输入数据从 tensor 转换为 numpy 数组即可解决问题。
示例代码:
import onnxruntime
import numpy as np
resnet_onnx = onnxruntime.InferenceSession('onnx.pb')
x = np.ones((2, 2), dtype=np.float32)
inputs = {resnet_onnx.get_inputs()[0].name: x}
print(resnet_onnx.run(None, inputs))注意:
以上就是如何使用 torch.onnx.export 导出的 ONNX 模型进行预测?的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号