谢谢您的订阅!
当新的内容发布后您将开始接收邮件。您也可以点击邮件内的链接随时取消订阅。关闭Close

本地 AI 部署:您应当了解的相关信息

by Canonical on 5 March 2024

企业组织正在重塑自身的数字战略,而 AI 是这些变化的核心,许多项目如今已准备好在生产环境中运行。企业通常在公共云上启动这些 AI 项目,因为这样可以最大限度地减少硬件负担。然而,随着项目规模的扩大,出于成本、数字主权或合规性要求等原因,企业组织往往希望迁移本地工作负载。在自身的基础架构上运行 AI 有很多明显的益处,但同时也带来了基础架构和 MLOps 专家需要考虑的一些重大挑战。

MLOps 是以可重复和可再现方式运行 AI 工作负载的推动者。MLOps 平台,如 Charmed Kubeflow,是在 Kubernetes 上运行的云原生应用程序。在本地构建这样的架构有助于企业组织轻松部署、管理和扩展其 AI 应用程序。

本地 AI 部署的优点

在构建自身的 AI 战略时,企业组织应考虑成本效益、管理能力、安全性和合规性以及性能等因素。下面我们来看看本地运行 AI 项目如何解决这些优先考虑的因素

现有基础架构上的 AI

为 AI 项目建立一个全新的数据中心是一项巨大且耗时的工程,但不见得一定有必要。如果您已经拥有现成的但没有充分利用起来的基础架构,那么它可能适合您的 AI 项目。在现有基础架构上进行本地 AI 部署是快速启动新项目和实验,评估不同用例的可能投资回报,以及从现有硬件中获得额外价值的好方法。

确保本地 ML 工作负载安全性

许多企业组织已经制定了明确的内部政策,任何新的 AI 项目也需要遵循这些政策。使用本地基础架构更容易遵循这些政策,从而为 MLOps 平台奠定一个安全兼容的基础,并使您能够构建可重复和可再现的 ML 管道。尤其是在监管严格的行业中,在本地运行 AI 项目可以加快合规性和安全性检查进程,帮助您专注于构建模型而非安全问题。

具有成本效益的解决方案

虽然现在的公共云提供不同类型的实例来运行机器学习工作负载,但对于将所有数据存储在自身基础架构之上的企业来说,数据迁移将产生巨大的成本。通过在已经存储数据的相同位置运行 AI 项目,可以完全规避这一挑战。这正是企业组织通常更喜欢在本地构建 AI 工作负载的原因之一

本地 AI 部署的缺点

构建和扩展 AI 项目对计算能力有一定的需求。对于需要更多计算能力的企业组织而言,这甚至是在开始之前就需要进行的一项巨大投资。同时,本地基础架构需要大量的前期成本,并且伴随着部署后基础架构的运营负担。本地部署也只有数量有限的预训练模型和现成服务可供企业利用。 

另一方面,公共云很容易上手,不需要大量的投资。公共云中有大量的预训练模型,比如 Amazon BedRock,可以让企业组织领先一步。话虽如此,但从长远来看,公共云往往具有较低的成本效益。

推出一项新的战略举措,如人工智能项目,会带来一系列新的挑战。在决定是否在本地运行 AI 项目时,您应当考虑以下几个关键因素,以确定其对您而言是否适合:

什么情况下应该在本地运行 AI 项目?

  • 计算性能:众所周知,AI 项目需要强大的计算能力,而且这些需求只会增加。只有当您确定拥有满足这些计算需求的资源和扩展空间时,您才应该致力于采用本地 AI 部署策略。 
  • 行业法规:当您可以完全控制自身硬件上的数据时,遵守行业法规通常会更容易。如果您在医疗保健或金融服务等监管严格的行业开展业务,那么内部 AI 部署可能是正确的选择。 
  • 隐私性:这些原则同样可以延伸到更广泛的数据隐私领域,这在任何 AI 项目中都将发挥着重要的作用。对于希望最大限度地控制自身数据和 ML 模型的企业组织来说,本地基础架构是一个不可抗拒的选择。
  • 初始投资:最佳的基础架构选择将在很大程度上取决于分配给初始投资的预算。如果您缺乏支撑前期硬件成本的资源,公共云可能更合适——除非您拥有现成的、未使用的且可以利用的本地基础架构。
  • 定制化解决方案:您想要一个现成的解决方案,还是一个能够让您根据自身特定需求定制 AI 部署方案的平台?如果您追求灵活性,本地部署方案无疑是最佳选择。

本地 AI 部署的开源解决方案

开源是 AI 革命的核心。越来越多的开源解决方案受益于在机器学习领域的广泛采用。企业组织可以使用一些可用的领先工具在本地构建一个完全开源的 MLOps 平台:

  • OpenStack:一款功能齐全的云平台,可与 GPU 等领先的性能提速设备顺畅集成。
  • Kubernetes可用作容器编排工具。
  • Kubeflow用于开发和部署机器学习模型的 MLOps 平台。
  • MLflow用于模型注册的机器学习平台。 

开源工具带来了很多益处。但是,选择正确的版本非常重要。为了确保工具的安全性以及无缝集成,企业组织需采用适合企业部署的官方发行版——比如 Canonical 发布的版本。

想要了解更多关于开源私有云上 AI 的内容吗?立即观看我们的网络研讨会录影

结合开源的混合策略 

根据思科《2022 年全球混合云趋势报告》,82% 的 IT 决策者采用了混合 IT 策略。将这一点与当今企业组织对人工智能战略的关注联系起来,很容易就能发现,许多新项目都将在混合云环境中运行。开源工具——就像 Canonical 支持并集成在端到端解决方案中的那些工具——如前面所提到的,使企业组织能够在自身选择的云上构建和扩展其 AI 项目。它可以帮助用户在公共云上启动项目,以最大限度地减少硬件负担,随之制定混合云策略,确保时效性和成本效益。

AI 系列网络研讨会

关注我们的系列网络研讨会,了解行业最新动态。

更多阅读资料

订阅博客文章

订阅您感兴趣的主题

在提交此表格的同时,我确认已阅读和同意的隐私声明隐私政策。

查看更多内容

边缘 AI:结合开源的目的、理由和方式

边缘 AI 正在改变设备与数据中心交互的方式,使组织在跟上最新创新的速度方面面临挑战。从 AI 驱动的医疗器械到自动驾驶汽车,大量的用例都受益于边缘设备上的人工智能。本篇博客将深入探讨该话题,了解开始边缘 AI 项目时的关键考虑因素、边缘 AI 的主要益处、存在的挑战以及如何与开源技术融合。 什么是边缘 AI? 位于边缘的 AI 即边缘 AI,是指人工智能与边缘计算相结合。其目标是在连接的边缘设备上执行机器学习模型。它能够使设备做出更明智的决策,无需总是连接到云来处理数据。其之所以被称为边缘,是因为机器学习模型在用户附近运行,而非数据中心。 随着行业发现新的用例和机会来优化工作流程、实现业务流程自动化或解锁新的创新机遇,边缘 AI 越来越受欢迎。自动驾驶汽车、可穿戴设备、 […]

云化数据中心 — VMware 基础架构转型指南

在过去至少一年的时间里,许多企业都一直在观望 Vmware 行情。对于接下来会出现的趋势,无论如何都要做好准备迎接这巨大的变化。您和您的团队是否已经做足准备,制定预算、时间表?剩下的临门一脚就是「如何执行」了。 我们录制了 60 分钟的网络研讨会,带您了解如何立足于 Vmware 走向未来。下方博文另有研讨会摘要可供阅读,我们将介绍 Canonical 成熟的 Vmware 基础架构转型途径,即通过数据中心完全云化来实现。我们还将探讨为什么与其停留在过去,不如走向未来。 过去与未来 在过去的二十年,企业运行其 IT 资产的方式发生了重大变化。许多过去以传统方式运营数据中心的企业组织都决定将其工作负载完全虚拟化,以优化资源消耗并提高敏捷度。这正是 VMware 推出 vSp […]

安全数据存储对于推动 AI 人工智能的关键性

立即报名 八月十四日下午2:00 网路研讨会直播 -使用 Ceph 的 AI 存储 没有数据就没有 AI 人工智能是近年来最激动人心的一场科技革命。Nvidia、Intel、AMD 和其他公司继续生产速度越来越快的 GPU,进而支持更大的模型和决策过程中更高的吞吐量。 除了当下对人工智能的大量宣传之外,还有一点仍被人们所忽略:AI 需要数据。 首先,存储系统需要对不断增长的数据集的高性能进行访问,但更重要的是,它们需要确保这些数据得到安全存储,以供当下以及未来之用。在典型的 AI 系统中,用到了多种不同类型的数据: 所有这些数据的收集、处理和输出都要耗费时间和计算能力,因此需要对数据进行保护。在某些情况下,诸如自动驾驶汽车的遥测数据之类的数据可能永远无法复制。即使在训练数 […]