MultiModalPredictor.optimize_for_inference

MultiModalPredictor.optimize_for_inference(providers: dict | List[str] | None = None)[source]

优化预测器的模型以用于推理。

在底层实现中,该方法会将 PyTorch 模块转换为 ONNX 模块,以便我们可以利用 onnxruntime 中高效的执行提供程序进行更快的推理。

参数:

providers (dictstr, 默认为 None) –

onnxruntime 中用于模型预测的执行提供程序列表。

默认情况下,providers 参数为 None。如果正确安装了 tensorrt 包,该方法将生成一个 ONNX 模块,该模块将使用 onnxruntime 中的 TensorrtExecutionProvider 执行模型推理。否则,onnxruntime 将回退到使用 CUDA 或 CPU 执行提供程序。

返回:

onnx_module – 可用于替换 predictor._model 进行模型推理的基于 onnx 的模块。

返回类型:

OnnxModule