TimeSeriesCloudPredictor.deploy#
- TimeSeriesCloudPredictor.deploy(predictor_path: Optional[str] = None, endpoint_name: Optional[str] = None, framework_version: str = 'latest', instance_type: str = 'ml.m5.2xlarge', initial_instance_count: int = 1, custom_image_uri: Optional[str] = None, volume_size: Optional[int] = None, wait: bool = True, backend_kwargs: Optional[Dict] = None) None #
将预测器部署到端点,该端点可用于后续的实时推理。
- 参数
predictor_path (str) – 要部署的预测器 tar 包的路径。路径可以是本地路径或 S3 位置。如果为 None,将部署最近使用 fit() 训练的预测器。
endpoint_name (str) – 用于部署的端点名称。如果为 None,CloudPredictor 将创建一个以 ag-cloudpredictor 为前缀的名称。
framework_version (str, default = latest) – AutoGluon 的推理容器版本。如果为 latest,将使用最新的可用容器版本。如果提供特定版本,将使用该版本。如果设置了 custom_image_uri,此参数将被忽略。
instance_type (str, default = 'ml.m5.2xlarge') – 用于端点部署的实例类型。
initial_instance_count (int, default = 1,) – 为端点部署的初始实例数量。
custom_image_uri (Optional[str], default = None,) – 用于部署端点的自定义镜像。如果未指定,将使用官方 DLC 镜像:https://github.com/aws/deep-learning-containers/blob/master/available_images.md#autogluon-inference-containers
volumes_size (int, default = None) – 用于端点的 EBS 卷大小(GB)(默认:None)。SageMaker GPU 实例端点目前不支持指定 volumes_size。在这种情况下将忽略。
wait (Bool, default = True,) – 是否等待端点部署完成。请注意,函数不会立即返回,因为部署前需要进行一些准备工作。
backend_kwargs (dict, default = None) –
需要传递给底层后端的任何额外参数。对于 SageMaker 后端,有效键包括:
- model_kwargs: dict, default = dict()
初始化 SageMaker 模型所需的任何额外参数。请参考 https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#model 获取所有选项。
- deploy_kwargs
需要传递给 deploy 的任何额外参数。请参考 https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#sagemaker.model.Model.deploy 获取所有选项。