TabularPredictor.compile¶
- TabularPredictor.compile(models='best', with_ancestors=True, compiler_configs='auto')[源代码]¶
编译模型以加速预测。这有助于减少预测延迟并提高吞吐量。
请注意,这目前是一个实验性功能,支持的编译器可以是 ['native', 'onnx']。
为了使用特定编译器进行编译,该编译器必须安装在 Python 环境中。
- 参数:
models (list of str or str, default = 'best') – 要编译的模型的模型名称。如果为 'best',则编译验证得分最高的模型(这是默认用于预测的模型)。如果为 'all',则编译所有模型。有效的模型名称可通过调用 predictor.model_names() 列出。
with_ancestors (bool, default = True) – 如果为 True,则提供的模型的所有祖先模型也将被编译。
compiler_configs (dict or str, default = "auto") –
- 如果为 "auto",则默认为以下配置:
- compiler_configs = {
“RF”: {“compiler”: “onnx”}, “XT”: {“compiler”: “onnx”}, “NN_TORCH”: {“compiler”: “onnx”},
}
否则,手动指定一个 compiler_configs 字典。键可以是精确的模型名称或模型类型。如果模型名称和类型都有效,则精确的模型名称优先。类型可以是真实类型,例如 RandomForestModel,也可以是简写 "RF"。类型的字典键逻辑与 predictor.fit 的 hyperparameters 参数中的逻辑相同。
- 配置中的示例值:
- compilerstr, default = None
用于模型编译的编译器。
- batch_sizeint, default = None
为模型预测优化的批量大小。默认情况下,批量大小为 None。这意味着编译器将尝试利用动态形状进行预测。使用 batch_size=1 更适用于在线预测,它期望从单个数据点获得结果。然而,由于多次内核执行的开销,这对于批量处理可能会很慢。将批量大小增加到大于 1 的数字有助于提高预测吞吐量。但这会以预测时占用更大内存为代价。