版本 0.7.0¶
我们很高兴宣布 AutoGluon 0.7 版本发布。此版本包含一个新的用于探索性数据分析的实验模块 autogluon.eda
。AutoGluon 0.7 提供对 conda-forge 的支持,增强了 Tabular、MultiModal 和 Time Series 模块,并进行了许多用户体验改进和修复。
与往常一样,只能使用训练模型时所用的 AutoGluon 版本来加载之前训练好的模型。不支持加载在不同 AutoGluon 版本中训练的模型。
此版本包含 170 次提交,来自 19 位贡献者!
在此查看完整的提交变更日志:https://github.com/autogluon/autogluon/compare/v0.6.2…v0.7.0
特别感谢 @MountPOTATO,他是本次发布中首次为 AutoGluon 做出贡献的贡献者!
完整贡献者列表(按提交次数排序)
@Innixma, @zhiqiangdon, @yinweisu, @gradientsky, @shchur, @sxjscience, @FANGAreNotGnu, @yongxinw, @cheungdaven, @liangfu, @tonyhoo, @bryanyzhu, @suzhoum, @canerturkmen, @giswqs, @gidler, @yzhliu, @Linuxdex 和 @MountPOTATO
AutoGluon 0.7 支持 Python 3.8、3.9 和 3.10 版本。从本版本开始不再支持 Python 3.7。
变更¶
新增:AutoGluon 可通过 conda-forge 获取¶
截至 AutoGluon 0.7 版本发布,AutoGluon 现在已在 conda-forge (#612) 上可用!
感谢以下人员促成此事
@giswqs 领导了整个工作并单枪匹马推动此事向前发展。
@h-vetinari 为使用 conda-forge 提供了宝贵建议,并提供了非常出色的反馈。
@arturdaraujo、@PertuyF、@ngam 和 @priyanga24 提供的鼓励、建议和反馈。
conda-forge 团队对我们的(许多)PR 进行了及时有效的评审。
@gradientsky 在早期阶段测试了 M1 支持。
@sxjscience、@zhiqiangdon、@canerturkmen、@shchur 和 @Innixma 帮助升级了下游依赖项版本,使其与 conda 兼容。
所有直接或间接支持此过程的其他人。
新增:autogluon.eda
(探索性数据分析)¶
我们很高兴发布 AutoGluon 探索性数据分析(EDA)工具包。从 v0.7 开始,AutoGluon 现在可以分析和可视化数据和模型的不同方面。我们邀请您探索以下教程:快速拟合、数据集概览、目标变量分析、协变量偏移分析。其他材料可以在网站的EDA 部分找到。
通用¶
AutoMM¶
AutoGluon MultiModal(又称 AutoMM)支持三个新功能:1) 文档分类;2) 中文命名实体识别;3) 使用 SVM 进行少样本学习
同时,我们移除了 autogluon.text
和 autogluon.vision
,因为这些功能已在 autogluon.multimodal
中得到支持
新功能¶
其他增强功能¶
添加了匹配器实时推理支持。 @zhiqiangdon (#2613)
添加了匹配器 HPO。 @zhiqiangdon (#2619)
添加了 YOLOX 模型(小型、大型和特大型)并更新了目标检测预设。 @FANGAreNotGnu (#2644, #2867, #2927, #2933)
添加了 AutoMM 预设 @zhiqiangdon。 (#2620, #2749, #2839)
添加了对 HuggingFace、timm 和 mmdet 模型进行模型转储的功能。 @suzhoum @FANGAreNotGnu @liangfu (#2682, #2700, #2737, #2840)
NER 的 Bug 修复/重构。 @cheungdaven (#2659, #2696, #2759, #2773)
减少了 MultiModalPredictor 导入时间。 @sxjscience (#2718)
Bug 修复 / 代码和文档改进¶
弃用¶
autogluon.vision
命名空间已弃用。 @bryanyzhu (#2790, #2819, #2832)autogluon.text
命名空间已弃用。 @sxjscience @Innixma (#2695, #2847)
Tabular¶
TabularPredictor 的推理速度已得到极大优化,实时推理平均提速 250%。这意味着当使用
infer_limit
时,TabularPredictor 可以在许多数据集上满足 <10 毫秒的端到端延迟,并且high_quality
预设默认可以在许多数据集上满足 <100 毫秒的端到端延迟。TabularPredictor 的
"multimodal"
超参数预设现在利用了 MultiModalPredictor 的全部功能,从而在包含表格数据、图像和文本特征混合的数据集上获得了更强的性能。
性能改进¶
升级了所有依赖包版本,以使用最新版本。 @Innixma (#2823, #2829, #2834, #2887, #2915)
通过移除 TorchThreadManager 上下文切换,将集成推理速度提升了 150%。 @liangfu (#2472)
在具有许多特征的数据集上,FastAI 神经网络推理速度提高了 100 倍以上,训练速度提高了 10 倍。 @Innixma (#2909)
(来自 0.6.1)重构
NN_TORCH
模型使其可迭代数据集,推理速度提高了 100%。 @liangfu (#2395)当
TabularPredictor.fit
传入hyperparameters="multimodal"
时,MultiModalPredictor 现在被用作集成模型的一部分。 @Innixma (#2890)