使用 Canonical 和 NVIDIA AI Enterprise 加快 AI 应用程序开发
by tjc713 on 7 November 2023
NVIDIA AI Enterprise 支持 Ubuntu KVM
Canonical 将继续扩大与 NVIDIA 的合作范围,为将于今天全面上市的NVIDIA AI Enterprise 4.0 提供 Ubuntu KVM Hypervisor 支持。在 Ubuntu 上使用 GPU 虚拟化的企业组织有望无缝迁移到新版 NVIDIA AI Enterprise 许可证。
NVIDIA AI Enterprise 4.0
NVIDIA AI Enterprise 4.0 现在具有跨工作站、数据中心和云部署支持功能,且更新中包括:
- NVIDIA NeMo,用于构建、定制和部署生成式人工智能模型;
- 两个新的人工智能工作流,用于加速生成式人工智能用例;
- 通过 NVIDIA Triton 管理服务增强可管理性,实现大规模自动化部署;
- 企业级支持。
NVIDIA AI Enterprise 为人工智能应用程序开发和部署提供了一个端到端且安全的云原生软件平台,帮助企业组织解决新挑战,同时提高运营效率。新的 NVIDIA Triton 管理服务可以简化并有效管理模型部署,并且 NeMo 支持构建、定制和部署复杂的大型语言模型,为企业提供一种简单、经济、快速的方式来使用生成式人工智能。
Ubuntu KVM 和 NVIDIA Enterprise 4.0
普遍将 NVIDIA 框架和工作流与 Ubuntu 结合使用的数据科学家和开发人员现拥有一个单一的平台,可以在最新一代 NVIDIA GPU 的基础之上快速开发人工智能应用程序。随着 Ubuntu KVM 支持 GPU 虚拟化,企业组织可以利用现有的本地或云基础架构快速部署相同的模型来支持 AI 工作负载的运行。
GPU 虚拟化是一个重要的工具,可以在多个虚拟机(VM)间共享单个 GPU。这样可以优化 GPU 资源利用率,并且直接为受宏观影响的 IT 预算节省大量成本。Ubuntu KVM 历来一直支持 NVIDIA 虚拟 GPU(vGPU)解决方案。Canonical 和 NVIDIA 现已验证 NVIDIA 的虚拟化解决方案,使 NVIDIA AI Enterprise 容器和虚拟机均支持 GPU,并将性能影响降到最低。一旦客户和用户指向新的 NVIDIA AI Enterprise 许可证服务器,则应在不中断的情况下继续使用。
企业将 NVIDIA AI Enterprise 与 Ubuntu KVM 结合使用,现可跨多云和混合云部署来扩展部署。
安全性和支持 —— 确保完整的深度学习堆栈
Ubuntu 是大多数人工智能开发人员的首选开源操作系统,Canonical 很自豪能够通过提供优化的、安全的操作系统,为 NVIDIA 的创新者提供支持。NVIDIA 客户使用 NVIDIA AI Enterprise 4.0,可以自动享有 Canonical 在操作系统之外的安全承诺,从而确保 NVIDIA 容器中开源内容的安全。旨在部署最新人工智能创新技术的企业组织使用 NVIDIA AI Enterprise,现在可以获得 NVIDIA 提供的企业级支持。此外,客户还可以获得 Canonical 针对其开源基础架构软件提供的支持,包括 Kubernetes 和 Kubeflow 等热门上游项目。
在谈及这些解决方案时,Canonical AI/ML 负责人 Maciej Mazur 表示:“经认证,Ubuntu KVM 与 NVIDIA AI Enterprise 相结合可以为客户提供端到端解决方案的所有必要要素:NVIDIA 提供的用于培训最新 LLM 的容器,以及 Canonical 提供的针对基础架构软件的企业级支持。”
入门简单且免费。您可以放心,如有需要,Canonical 专家可以提供帮助。
NVIDIA AI Enterprise 与 Canonical 开源解决方案结合使用入门
- 查看更多关于 Canonical 和 NVIDIA 致力于帮助企业运用人工智能的信息
- 观看我们携手 NVIDIA 和 Dell 推出的关于生成式人工智能的联合网络研讨会
- 观看 Charmed Openstack 结合 NVIDIA vGPU 技术的网络研讨会
- 在 Ubuntu KVM 上试用 NVIDIA AI Enterprise,并提供 90 天免费评估
订阅博客文章
查看更多内容
Canonical 为 NVIDIA Jetson Orin 提供 Ubuntu 和 ROS,从而提高机器人和人工智能开发的稳定性
软件与硬件的结合对于推动机器人和人工智能(AI)的进步至关重要。Canonical 正在与 NVIDIA 展开合作,共同推动这一协同作用。此次合作承诺为 NVIDIA Jetson Orin 硬件用户提供 Ubuntu 的多功能性和稳定性。 在本文中,我们将深入探讨此次针对 NVIDIA Jetson Orin 系列的合作细节,以及近期宣布的Isaac ROS的可用性,以及为早期合作伙伴提供基于 NVIDIA Jetson Orin 系统的优化 Ubuntu 镜像。 NVIDIA Jetson Orin 上的 Ubuntu 和 ROS 优化后的 Ubuntu 内核与用户空间和 NVIDIA Jetson Orin 的推出标志着机器人和 AI 领域的重要里程碑。大约 10 […]
人工智能的未来会如何?
人工智能鉴赏日值得关注的八大趋势 每年的 7 月 16 日是国际人工智能鉴赏日。上个世纪的科幻小说中经常出现的,如今更加接近科学事实的主题和发明,比如人形机器人。在 50 年代,人工智能既取得了巨大的成功,如算法的开发,也因计算能力限制遭遇了巨大的失败。而时至今日,人工智能很可能成为今年的热点话题,ChatGPT 等产品的用户在不到一周的时间里就突破了 10 亿,企业也在改变预算,计划投资更多。人工智能的未来会是怎样的?这些趋势可以帮助我们一窥未来。 人工智能重新开启工业革命 人工智能是一场新技术革命的中心。大约两个世纪前,自 18 世纪末工业革命开始以来,人们一直在探索使用汽车或火车的可能性。如今,企业组织正在探索自动化任务、优化运营和降低成本的途径。人工智能正在改变着 […]
使用实时内核实现边缘云中延迟最小化
从电信应用到边缘云和工业数字孪生,在云技术中试验实时功能已成为行业趋势。边缘应用程序在与实时系统交互时通常有一个额外的要求:它们需要确切地运行。这意味着它们在系统内的执行和交互都有时间限制。 Canonical 推出的 MicroCloud 是一种小型云部署平台,托管可扩展和高可用性的应用程序,在更接近数据源的位置提供计算、安全网络和弹性存储等功能。它们特别适用于需要在所需地方附近提供工作负载的用例,例如边缘云部署。在 Ubuntu 实时内核功能的加持下,MicroCloud 是一个适用于具有严格低延迟要求的边缘应用程序的绝佳解决方案。 本篇文章将介绍如何在 MicroCloud 主机中启用实时内核。文中还将涵盖我们的实时测试,比较利用 Ubuntu 实时和通用内核的虚拟 […]