自学内容网 自学内容网

Paddle Inference部署推理(八)

八:Paddle Inference推理 (python)API详解

7. 使用 ONNXRuntime 进行预测

API定义如下:

# 启用 ONNXRuntime 进行预测
# 参数:None
# 返回:None
paddle.inference.Config.enable_onnxruntime()

# 禁用 ONNXRuntime 进行预测
# 参数:None
# 返回:None
paddle.inference.Config.disable_onnxruntime()

# 判断是否启用 ONNXRuntime 
# 参数:None
# 返回:bool - 是否启用 ONNXRuntime 
paddle.inference.Config.onnxruntime_enabled()

# 启用 ONNXRuntime 预测时开启优化
# 参数:None
# 返回:None
paddle.inference.Config.enable_ort_optimization()

ONNXRuntime设置代码示例:

# 引用 paddle inference 预测库
import paddle.inference as paddle_infer

# 创建 config
config = paddle_infer.Config("./model.pdmodel", "./model.pdiparams")

# 启用 ONNXRuntime 进行预测
config.enable_onnxruntime()
# 通过 API 获取 ONNXRuntime 信息
print("Use ONNXRuntime is: {}".format(config.onnxruntime_enabled())) # True

# 开启 ONNXRuntime 优化
config.enable_ort_optimization()

# 设置 ONNXRuntime 算子计算线程数为 10
config.set_cpu_math_library_num_threads(10)

# 禁用 ONNXRuntime 进行预测
config.disable_onnxruntime()

# 通过 API 获取 ONNXRuntime 信息
print("Use ONNXRuntime is: {}".format(config.onnxruntime_enabled())) # False


原文地址:https://blog.csdn.net/weixin_46319994/article/details/144040839

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!