使用 Canonical 和 NVIDIA AI Enterprise 加快 AI 应用程序开发
by Canonical on 7 November 2023
NVIDIA AI Enterprise 支持 Ubuntu KVM
Canonical 将继续扩大与 NVIDIA 的合作范围,为将于今天全面上市的NVIDIA AI Enterprise 4.0 提供 Ubuntu KVM Hypervisor 支持。在 Ubuntu 上使用 GPU 虚拟化的企业组织有望无缝迁移到新版 NVIDIA AI Enterprise 许可证。
NVIDIA AI Enterprise 4.0
NVIDIA AI Enterprise 4.0 现在具有跨工作站、数据中心和云部署支持功能,且更新中包括:
- NVIDIA NeMo,用于构建、定制和部署生成式人工智能模型;
- 两个新的人工智能工作流,用于加速生成式人工智能用例;
- 通过 NVIDIA Triton 管理服务增强可管理性,实现大规模自动化部署;
- 企业级支持。
NVIDIA AI Enterprise 为人工智能应用程序开发和部署提供了一个端到端且安全的云原生软件平台,帮助企业组织解决新挑战,同时提高运营效率。新的 NVIDIA Triton 管理服务可以简化并有效管理模型部署,并且 NeMo 支持构建、定制和部署复杂的大型语言模型,为企业提供一种简单、经济、快速的方式来使用生成式人工智能。
Ubuntu KVM 和 NVIDIA Enterprise 4.0
普遍将 NVIDIA 框架和工作流与 Ubuntu 结合使用的数据科学家和开发人员现拥有一个单一的平台,可以在最新一代 NVIDIA GPU 的基础之上快速开发人工智能应用程序。随着 Ubuntu KVM 支持 GPU 虚拟化,企业组织可以利用现有的本地或云基础架构快速部署相同的模型来支持 AI 工作负载的运行。
GPU 虚拟化是一个重要的工具,可以在多个虚拟机(VM)间共享单个 GPU。这样可以优化 GPU 资源利用率,并且直接为受宏观影响的 IT 预算节省大量成本。Ubuntu KVM 历来一直支持 NVIDIA 虚拟 GPU(vGPU)解决方案。Canonical 和 NVIDIA 现已验证 NVIDIA 的虚拟化解决方案,使 NVIDIA AI Enterprise 容器和虚拟机均支持 GPU,并将性能影响降到最低。一旦客户和用户指向新的 NVIDIA AI Enterprise 许可证服务器,则应在不中断的情况下继续使用。
企业将 NVIDIA AI Enterprise 与 Ubuntu KVM 结合使用,现可跨多云和混合云部署来扩展部署。
安全性和支持 —— 确保完整的深度学习堆栈
Ubuntu 是大多数人工智能开发人员的首选开源操作系统,Canonical 很自豪能够通过提供优化的、安全的操作系统,为 NVIDIA 的创新者提供支持。NVIDIA 客户使用 NVIDIA AI Enterprise 4.0,可以自动享有 Canonical 在操作系统之外的安全承诺,从而确保 NVIDIA 容器中开源内容的安全。旨在部署最新人工智能创新技术的企业组织使用 NVIDIA AI Enterprise,现在可以获得 NVIDIA 提供的企业级支持。此外,客户还可以获得 Canonical 针对其开源基础架构软件提供的支持,包括 Kubernetes 和 Kubeflow 等热门上游项目。
在谈及这些解决方案时,Canonical AI/ML 负责人 Maciej Mazur 表示:“经认证,Ubuntu KVM 与 NVIDIA AI Enterprise 相结合可以为客户提供端到端解决方案的所有必要要素:NVIDIA 提供的用于培训最新 LLM 的容器,以及 Canonical 提供的针对基础架构软件的企业级支持。”
入门简单且免费。您可以放心,如有需要,Canonical 专家可以提供帮助。
NVIDIA AI Enterprise 与 Canonical 开源解决方案结合使用入门
- 查看更多关于 Canonical 和 NVIDIA 致力于帮助企业运用人工智能的信息
- 观看我们携手 NVIDIA 和 Dell 推出的关于生成式人工智能的联合网络研讨会
- 观看 Charmed Openstack 结合 NVIDIA vGPU 技术的网络研讨会
- 在 Ubuntu KVM 上试用 NVIDIA AI Enterprise,并提供 90 天免费评估
订阅博客文章
查看更多内容
Canonical 和 Renesas 宣布将合作加速企业 AI 创新
Ubuntu 的发行商 Canonical 宣布,半导体解决方案的全球领导者 Renesas Electronics Corporation 已加入 Canonical 的硅合作伙伴计划,以提供量身定制的尖端解决方案来满足边缘计算和 AI 应用不断增长的需求。随着行业越来越多地采用 AI 驱动的解决方案,对高效、可扩展和安全维护的边缘计算平台的需求前所未有地高涨。此次合作将结合 Renesas 在嵌入式处理方面的专业知识和 Canonical 全面的物联网(IoT)软件堆栈。 可扩展的生产级解决方案 Canonical 和 Renesas 的合作旨在为原始设备制造商(OEM)和原始设计制造商 (ODM)提供可扩展的生产级解决方案,从而缩短上市时间(TTM)。Renesas […]
Canonical 获得 ISO/SAE 21434 认证,强化了汽车网络安全标准
经过认证的网络安全流程有助于保护下一代互联汽车 Canonical 自豪地宣布,其安全管理系统经过全球知名认证提供商 TÜV SÜD 的广泛评估,已获得 ISO/SAE 21434 认证。这一里程碑突出了 Canonical 在为汽车行业提供可信可靠的开源解决方案方面的领导地位。它强调了 Canonical 对三大关键业务支柱的承诺:强大的网络安全、符合全球行业标准以及为自动驾驶和智能汽车构建更安全的未来。 强大的汽车网络安全 随着车辆的互联程度越来越高,未经授权的访问、远程攻击和数据泄露的风险也显著增加。ISO/SAE 21434 为在整个车辆生命周期内管理这些风险提供了详细的框架。对于原始设备制造商和一级供应商来说,合规是在竞争激烈的市场中交付产品的关键。 Canon […]
RAG 是什么?
在 2020 年的一篇论文中,Patrick Lewis 和他的研究团队引入了术语 RAG,即检索增强一代。该技术通过利用外部知识来源,如文件和广泛的数据库,增强了生成式 AI 模型。RAG 填补了传统大型语言模型(LLM)中的一个空白。传统的模型依赖于已经包含在其中的静态知识,而 RAG 则结合了最新信息,作为 LLM 的可靠事实来源。虽然 LLM 可以在没有 RAG 的情况下快速理解和响应提示,但它们通常不能提供最新或更具体的信息。 RAG 的一个实际应用是对话代理和聊天机器人。借助 RAG 模型,这些系统能够从外部来源获取上下文相关的信息,从而增强自身性能。这种能力确保客户服务聊天机器人、虚拟助理和其他对话界面在交互过程中提供准确和信息丰富的响应。另一个用例是在高级 […]