Canonical 现发布 Charmed Kubeflow 1.6
by Canonical on 5 October 2022
Canonical 发布的最新端到端 MLOps 平台 Charmed Kubeflow 1.6 改进了 AI/ML 训练能力
Ubuntu 开发商 Canonical 今日发布了最新版端到端 MLOps 平台Charmed Kubeflow 1.6, 本次更新重点强化了复杂模型的训练能力。Charmed Kubeflow 是 Canonical 旗下 Kubeflow 的企业版,专为配合 Kubernetes 设计,是一款开源的机器学习套件。
Charmed Kubeflow 1.6 遵循 Kubeflow 上游项目进行更新和发布。本次发布的最新版遵循 Kubeflow 路线图,性能和模型训练能力有所提升。
加速数字化转型:将模型从概念转化为生产
Charmed Kubeflow 可帮助数据科学团队实现任务自动化,提高生产力,帮助企业降低成本。平台使用可自动维护和安全运行的 Kubernetes 运算符charms。Charms 可加速工作负载部署,使数据科学团队能够更有效率地将模型推向市场。
一份2022年的 IBM 人工智能指数报告显示, 在去年,人工智能(AI)和机器学习(ML)在企业中的采用率达到了35%。好处显而易见,举例来说,银行应用ML构建推荐收益,从而将其销售额提高10%, 资本支出节约20%,现金收入增加20%, 流失率降低20%。识别工具使数据科学工作流程自动化,是快速从AI/ML项目中获得投资回报的关键。
借助 MLOps 完善数据处理和跟踪功能
除可加快部署外,Charmed Kubeflow 1.6 还可提高数据处理的流畅度。Kubeflow 2022年的一项调查显示,数据处理和转换是企业面临的最具挑战性且最耗时的活动。此外,这些数据来自不同的来源,各数据源需执行特定流程或处理特定依存关系。
Charmed Kubeflow 1.6 具有完善的追踪功能。 AI/ML模型可得到更高效的测量,模型演化和调试工作将会更简单,解决方案会侦测数据飘移,使得模型能够更快地适应变化,同时,Charmed Kubeflow 1.6 也改进了对测试日志的追踪,允许在数据源故障时进行高效调试。
改进 AI 训练和建模
模型通常需要多达15次迭代才能进入生产,而且其中只有一半会生产成为 AI/ML 模型。Charmed Kubeflow 1.6 支持基于群体的训练(PBT)技术, 从而加速模型迭代,提高模型达到生产就绪状态的可能性。MPI 运算符可提高大量数据的训练效率。PyTorch 弹性训练增强功能可提高模型训练的效率,同时帮助 ML 工程师快速入门。
深入了解 Charmed Kubeflow 1.6 技术
Canonical 将于2022年9月8日通过直播详细介绍 Charmed Kubeflow 1.6。还将就上游 Kubeflow 和 Canonical 路线图中的一些主题进行深度的技术解读。具体内容将涉及:
- 新版发布信息
- 加入开源社区的重要性
- 开发开源产品面临的挑战
- Canonical 的 Charmed Kubeflow 和上游版本的区别
本次直播将深入探讨上一次发布 Beta 版时在直播中谈到的特性,上次直播视频可在 YouTube 上观看。移步Facebook或Linkedin关注本次活动,即可获得 Canonical 后续活动的相关推送。
订阅博客文章
查看更多内容
Canonical 获得 ISO/SAE 21434 认证,强化了汽车网络安全标准
经过认证的网络安全流程有助于保护下一代互联汽车 Canonical 自豪地宣布,其安全管理系统经过全球知名认证提供商 TÜV SÜD 的广泛评估,已获得 ISO/SAE 21434 认证。这一里程碑突出了 Canonical 在为汽车行业提供可信可靠的开源解决方案方面的领导地位。它强调了 Canonical 对三大关键业务支柱的承诺:强大的网络安全、符合全球行业标准以及为自动驾驶和智能汽车构建更安全的未来。 强大的汽车网络安全 随着车辆的互联程度越来越高,未经授权的访问、远程攻击和数据泄露的风险也显著增加。ISO/SAE 21434 为在整个车辆生命周期内管理这些风险提供了详细的框架。对于原始设备制造商和一级供应商来说,合规是在竞争激烈的市场中交付产品的关键。 Canon […]
Canonical 和 Renesas 宣布将合作加速企业 AI 创新
Ubuntu 的发行商 Canonical 宣布,半导体解决方案的全球领导者 Renesas Electronics Corporation 已加入 Canonical 的硅合作伙伴计划,以提供量身定制的尖端解决方案来满足边缘计算和 AI 应用不断增长的需求。随着行业越来越多地采用 AI 驱动的解决方案,对高效、可扩展和安全维护的边缘计算平台的需求前所未有地高涨。此次合作将结合 Renesas 在嵌入式处理方面的专业知识和 Canonical 全面的物联网(IoT)软件堆栈。 可扩展的生产级解决方案 Canonical 和 Renesas 的合作旨在为原始设备制造商(OEM)和原始设计制造商 (ODM)提供可扩展的生产级解决方案,从而缩短上市时间(TTM)。Renesas […]
RAG 是什么?
在 2020 年的一篇论文中,Patrick Lewis 和他的研究团队引入了术语 RAG,即检索增强一代。该技术通过利用外部知识来源,如文件和广泛的数据库,增强了生成式 AI 模型。RAG 填补了传统大型语言模型(LLM)中的一个空白。传统的模型依赖于已经包含在其中的静态知识,而 RAG 则结合了最新信息,作为 LLM 的可靠事实来源。虽然 LLM 可以在没有 RAG 的情况下快速理解和响应提示,但它们通常不能提供最新或更具体的信息。 RAG 的一个实际应用是对话代理和聊天机器人。借助 RAG 模型,这些系统能够从外部来源获取上下文相关的信息,从而增强自身性能。这种能力确保客户服务聊天机器人、虚拟助理和其他对话界面在交互过程中提供准确和信息丰富的响应。另一个用例是在高级 […]