Canonical AI 解决方案的优势
- 专家引导加速 AI 部署
- 单一供应商即可支持全栈 AI 技术
- 支持在混合云和多云等任何环境运行工作负载
- 通过生命周期管理和自动化来简化运维
- 以每节点计算的简单订阅模式
在任何环境中开发人工智能项目



















开源 MLOps 工具选择
Charmed Kubeflow
Charmed Kubeflow 是一款端到端的 MLOps 平台,旨在大规模运行 AI。它是 Canonical MLOps 的基础,并能与其他大数据和机器学习工具无缝集成。
Charmed MLflow
追踪你的实验并得到更好的模型目录。Charmed MLFlow 是一个用于管理机器学习工作负载的开源平台。它能够与其他 MLOps 工具集成,覆盖机器学习生命周期的各个功能。
Charmed Spark
无论是在云端还是在数据中心,Charmed Spark 都是运行 Spark® 的最佳方式。在 Kubernetes 上运行,并包含 Apache Spark 的完全支持发行版。
Charmed OpenSearch
OpenSearch 是一个开源的搜索和分析套件,而 Charmed OpenSearch 简化了它的操作。此外,可用 OpenSearch 集成的矢量数据库作为知识库来支持人工智能系统。
Technical enablement
We provide in-depth technical training for your customer engineering teams with access to technical resources for your labs and customer engagements.
全栈式 AI 基础架构
Canonical 的产品组合覆盖从操作系统到 Kubernetes 以及各种云环境的完整 AI 基础架构。您可以选择端到端解决方案,或根据需求挑选特定组件,灵活构建您的 AI 环境。
在 NVIDIA DGX 上运行 Canonical Kubernetes
阅读解决方案简介 ›
从工作站、边缘或大型云环境,实现灵活部署
Ubuntu 是数据科学家的首选操作系统。在 Ubuntu 工作站上开发机器学习模型,并部署到 Ubuntu 服务器。无论是在云端还是边缘(edge),整个 AI 生命周期都能享受一致且熟悉的 Ubuntu 体验。
而生产级项目更需要一个能够实现可扩展、可移植和可重制的解决方案。Canonical MLOps 加速 AI 项目的开发进程,为您提供:
- 在任何云环境中,无论是私有云还是公共云,都能获得相同的体验
- 低运维、简化的生命周期管理
- 一套模块化的开源工具,支持可重用的部署
使用开源技术在边缘部署
深入了解 Edge AI ›
企业级开源 AI 服务及支持
MLOps 托管服务
基础架构交由 Canonical 专家管理,您可放心专注于构建生产级模型。
- 99.9% uptime
- 24/7 全天监控
- 高可用性
AI 咨询服务
由 Canonical 專家帶領更深入地理解您的数据,成功实现您的用例。
- 数据探索 workshop
- Canonical MLOps 部署
- MLOps 实作 workshop
- 基于 PoC 实施