MultiModalCloudPredictor.deploy#
- MultiModalCloudPredictor.deploy(predictor_path: Optional[str] = None, endpoint_name: Optional[str] = None, framework_version: str = 'latest', instance_type: str = 'ml.m5.2xlarge', initial_instance_count: int = 1, custom_image_uri: Optional[str] = None, volume_size: Optional[int] = None, wait: bool = True, backend_kwargs: Optional[Dict] = None) None #
将预测器部署到端点,以便稍后进行实时推理。
- 参数
predictor_path (str) – 要部署的预测器 tarball 文件的路径。路径可以是本地路径或 S3 位置。如果为 None,将部署使用 fit() 训练的最新预测器。
endpoint_name (str) – 用于部署的端点名称。如果为 None,CloudPredictor 将创建一个以 ag-cloudpredictor 为前缀的名称。
framework_version (str, 默认值 = latest) – autogluon 的推理容器版本。如果为 latest,将使用最新的可用容器版本。如果提供特定版本,将使用该版本。如果设置了 custom_image_uri,此参数将被忽略。
instance_type (str, 默认值 = 'ml.m5.2xlarge') – 用于端点部署的实例类型
initial_instance_count (int, 默认值 = 1,) – 用于端点部署的初始实例数量
custom_image_uri (Optional[str], 默认值 = None,) – 用于部署端点的自定义镜像。如果未指定,将使用官方 DLC 镜像:https://github.com/aws/deep-learning-containers/blob/master/available_images.md#autogluon-inference-containers
volume_size (int, 默认值 = None) – 用于端点的 EBS 卷大小,单位 GB(默认值:None)。SageMaker GPU 实例端点当前不支持指定 volumes_size。在这种情况下将忽略此参数。
wait (Bool, 默认值 = True,) – 是否等待端点部署完成。请注意,函数不会立即返回,因为部署前需要进行一些准备工作。
backend_kwargs (dict, 默认值 = None) –
需要传递给底层后端的所有额外参数。对于 SageMaker 后端,有效键包括
- model_kwargs: dict, 默认值 = dict()
初始化 Sagemaker Model 所需的任何额外参数。请参考 https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#model 查看所有选项
- deploy_kwargs
传递给 deploy 所需的任何额外参数。请参考 https://sagemaker.readthedocs.io/en/stable/api/inference/model.html#sagemaker.model.Model.deploy 查看所有选项