MultiModalPredictor.export_onnx

MultiModalPredictor.export_onnx(data: dict | DataFrame, path: str | None = None, batch_size: int | None = None, verbose: bool | None = False, opset_version: int | None = 16, truncate_long_and_double: bool | None = False)[source]

将此预测器的模型导出到 ONNX 文件。

如果未提供 path 参数,该方法不会将模型保存到磁盘。相反,它会将 onnx 模型导出到 BytesIO 并将其二进制数据作为字节返回。

参数:
  • data – 用于跟踪和导出模型的原始数据。如果为 None,则会检查是否提供了已处理的批次数据。

  • path (str, default=None) – onnx 模型的导出路径。如果未提供 path,则方法会将模型导出到内存。

  • batch_size – 导出模型输入的 batch_size。通常 batch_size 是一个动态轴,因此我们可以使用较小的值以加快导出速度。

  • verbose – torch.onnx.export 中的详细标志。

  • opset_version – torch.onnx.export 中的 opset_version 标志。

  • truncate_long_and_double (bool, default False) – 将 int64 或 double (float64) 提供的权重截断为 int32 和 float32

返回:

onnx_path – 一个字符串,指示导出 onnx 模型的位置,如果提供了 path 参数。否则,将返回 onnx 模型作为字节。

返回类型:

str 或 bytes