TabularPredictor.persist¶
- TabularPredictor.persist(models='best', with_ancestors=True, max_memory=0.4) list[str] [源代码]¶
将模型持久化到内存中,以减少推理延迟。如果模型用于对低延迟要求苛刻的在线推理,这一点尤其重要。如果模型未持久化到内存中,则每次请求进行预测时都需要从磁盘加载。
- 参数:
models (str 或 list of str, default = 'best') – 要持久化的模型的名称。如果设置为 'best',则持久化验证分数最高的模型(默认情况下用于预测的模型)。如果设置为 'all',则持久化所有模型。可以通过调用 predictor.model_names() 来列出此 predictor 中有效的模型。
with_ancestors (bool, default = True) – 如果为 True,则所提供的所有模型的祖先模型也将被持久化。如果为 False,则堆叠模型(stacker models)所依赖的模型将不会被持久化,除非这些模型在 models 中指定。这将减慢推理速度,因为每次预测调用时仍需要从磁盘加载祖先模型。仅与堆叠模型相关。
max_memory (float, default = 0.4) – 允许持久化模型使用的总可用内存的比例。如果模型的总内存使用量所需的内存比例大于 max_memory,则不会进行持久化。在这种情况下,输出将是一个空列表。如果为 None,则无论估计的内存使用量如何,都会持久化模型。这可能导致内存不足错误。
- 返回类型:
持久化模型的名称列表。