谢谢您的订阅!
当新的内容发布后您将开始接收邮件。您也可以点击邮件内的链接随时取消订阅。关闭Close

利用开源工具部署企业级 AI 项目

借助合规的开源技术,实现从工作站到云端和智能设备的快速创新。在您的 Ubuntu 上利用 Charmed Kubeflow 或 Charmed MLFlow 进行开发,并通过开源工具快速扩展您的技术栈。


Canonical AI 解决方案的优势

  • 专家引导加速 AI 部署
  • 单一供应商即可支持全栈 AI 技术
  • 支持在混合云和多云等任何环境运行工作负载
  • 通过生命周期管理和自动化来简化运维
  • 以每节点计算的简单订阅模式

在任何环境中开发人工智能项目


以 MLOps 方法(机器学习运维)将模型部署到实际生产环境

使用 Canonical 的模块化 MLOps 解决方案,在任何规模的机器学习简化工作流程并自动化部署。 MLOps 使您能够高效地大规模部署和维护模型以进行生产。

由 Canonical 支持的 Kubeflow 发行版,能与不断发展的 AI 和数据工具生态系统相结合,为您的机器学习操作做到可扩展、可移植和可重制性。


开源 MLOps 工具选择


Charmed Kubeflow

Charmed Kubeflow 是一款端到端的 MLOps 平台,旨在大规模运行 AI。它是 Canonical MLOps 的基础,并能与其他大数据和机器学习工具无缝集成。


Charmed MLflow

追踪你的实验并得到更好的模型目录。Charmed MLFlow 是一个用于管理机器学习工作负载的开源平台。它能够与其他 MLOps 工具集成,覆盖机器学习生命周期的各个功能。


Charmed Spark

无论是在云端还是在数据中心,Charmed Spark 都是运行 Spark® 的最佳方式。在 Kubernetes 上运行,并包含 Apache Spark 的完全支持发行版。


Charmed OpenSearch

OpenSearch 是一个开源的搜索和分析套件,而 Charmed OpenSearch 简化了它的操作。此外,可用 OpenSearch 集成的矢量数据库作为知识库来支持人工智能系统。


Technical enablement

We provide in-depth technical training for your customer engineering teams with access to technical resources for your labs and customer engagements.


全栈式 AI 基础架构

Canonical 的产品组合覆盖从操作系统到 Kubernetes 以及各种云环境的完整 AI 基础架构。您可以选择端到端解决方案,或根据需求挑选特定组件,灵活构建您的 AI 环境。


在 NVIDIA DGX 上运行 Canonical Kubernetes
阅读解决方案简介 ›


从工作站、边缘或大型云环境,实现灵活部署

Ubuntu 是数据科学家的首选操作系统。在 Ubuntu 工作站上开发机器学习模型,并部署到 Ubuntu 服务器。无论是在云端还是边缘(edge),整个 AI 生命周期都能享受一致且熟悉的 Ubuntu 体验。

而生产级项目更需要一个能够实现可扩展、可移植和可重制的解决方案。Canonical MLOps 加速 AI 项目的开发进程,为您提供:

  • 在任何云环境中,无论是私有云还是公共云,都能获得相同的体验
  • 低运维、简化的生命周期管理
  • 一套模块化的开源工具,支持可重用的部署

使用开源技术在边缘部署
深入了解 Edge AI ›


企业级开源 AI 服务及支持


MLOps 托管服务

基础架构交由 Canonical 专家管理,您可放心专注于构建生产级模型。

  • 99.9% uptime
  • 24/7 全天监控
  • 高可用性

AI 咨询服务

由 Canonical 專家帶領更深入地理解您的数据,成功实现您的用例。

  • 数据探索 workshop
  • Canonical MLOps 部署
  • MLOps 实作 workshop
  • 基于 PoC 实施

了解如何构建您的边缘策略
边缘计算微云指南 ›