TimeSeriesPredictor.persist¶
- TimeSeriesPredictor.persist(models: Literal['all', 'best'] | List[str] = 'best', with_ancestors: bool = True) List[str] [source]¶
将模型持久化到内存中以减少推理延迟。如果模型用于低延迟至关重要的在线推理,这一点尤为重要。如果模型未持久化到内存中,则每次请求进行预测时都会从磁盘加载它们。对于每次都必须加载到加速器(例如 GPU)内存中的大型深度学习模型来说,这尤其麻烦。
- 参数:
models (str 列表或 str, 默认为 'best') – 要持久化的模型的名称。如果是 'best',则持久化验证分数最高的模型(这是默认用于预测的模型)。如果是 'all',则持久化所有模型。可以通过调用 predictor.model_names() 查看此 predictor 中的有效模型。
with_ancestors (bool, 默认为 True) – 如果为 True,则提供的模型的所有祖先模型也将被持久化。如果为 False,则集成模型所依赖的模型将不会被持久化,除非这些模型在 models 中被指定。这将减慢推理速度,因为每次调用 predict 时仍需要从磁盘加载祖先模型。仅与集成模型相关。
- 返回值:
list_of_models – 持久化的模型名称列表。
- 返回类型:
List[str]