MultiModalPredictor.export_onnx¶
- MultiModalPredictor.export_onnx(data: dict | DataFrame, path: str | None = None, batch_size: int | None = None, verbose: bool | None = False, opset_version: int | None = 16, truncate_long_and_double: bool | None = False)[source]¶
将此预测器的模型导出到 ONNX 文件。
如果未提供 path 参数,该方法不会将模型保存到磁盘。相反,它会将 onnx 模型导出到 BytesIO 并将其二进制数据作为字节返回。
- 参数:
data – 用于跟踪和导出模型的原始数据。如果为 None,则会检查是否提供了已处理的批次数据。
path (str, default=None) – onnx 模型的导出路径。如果未提供 path,则方法会将模型导出到内存。
batch_size – 导出模型输入的 batch_size。通常 batch_size 是一个动态轴,因此我们可以使用较小的值以加快导出速度。
verbose – torch.onnx.export 中的详细标志。
opset_version – torch.onnx.export 中的 opset_version 标志。
truncate_long_and_double (bool, default False) – 将 int64 或 double (float64) 提供的权重截断为 int32 和 float32
- 返回:
onnx_path – 一个字符串,指示导出 onnx 模型的位置,如果提供了 path 参数。否则,将返回 onnx 模型作为字节。
- 返回类型:
str 或 bytes