威九国际

产品介绍
弹性计算集群

AI弹性计算集群 AEC2(AI Elastic Compute Cluster)提供了节点管理、集群管理、工作空间管理、预留配额管理四种功能,提供全面、高性能、高可靠的计算资源,承载训练推理微调多种工作负载。便于客户对算力资源与资源分配进行统一的管理。

产品优势
高性能计算资源,高可靠性,灵活管理,支持多种工作负载。
  • 01高性能计算
  • 02高可靠性
  • 03灵活资源管理
  • 04统一管理平台
高性能计算
01高性能计算

提供高性能计算资源,适用于训练、推理和微调多种AI工作负载,确保任务高效执行。

高可靠性
02高可靠性

通过高可靠性、容错调度的设计,保障计算任务的稳定运行,减少中断和错误,提升整体系统可靠性。

灵活资源管理
03灵活资源管理

支持节点、集群、工作空间和预留配额管理,用户可根据需求灵活配置和分配资源,优化使用效率。

统一管理平台
04统一管理平台

提供统一的管理界面,便于客户对算力资源进行集中管理,简化操作流程,提高管理效率。

高性能计算
01
高性能计算

提供高性能计算资源,适用于训练、推理和微调多种AI工作负载,确保任务高效执行。

高可靠性
02
高可靠性

通过高可靠性、容错调度的设计,保障计算任务的稳定运行,减少中断和错误,提升整体系统可靠性。

灵活资源管理
03
灵活资源管理

支持节点、集群、工作空间和预留配额管理,用户可根据需求灵活配置和分配资源,优化使用效率。

统一管理平台
04
统一管理平台

提供统一的管理界面,便于客户对算力资源进行集中管理,简化操作流程,提高管理效率。

01
/
04
产品功能
丰富的资源管理,包含节点、集群、工作空间、预留配额管理。提供高性能、高可靠,支持多种工作负载的资源。
  • 资源统一管理
    资源统一管理

    支持客户按需购买和释放算力资源,支持所有新购算力资源的管理,为不同规格的计算资源提供统一的管理平台。

  • 资源按需分配
    资源按需分配

    支持客户对算力资源进行分组管理,基于同一组资源进行分布式训练任务的运行。

应用场景
为各种规模的AI应用提供灵活、高效的计算资源,支持从基础研究到商业应用的广泛AI场景。
  • 01AI模型训练
  • 02AI在线推理
  • 03模型微调
  • 04开发机技术验证
AI模型训练
AI模型训练
快速、稳定、高效、可靠完成训练任务
  • 强大的分布式计算能力,顶级性能的计算服务器,高速低延时的RDMA网络。
  • 支持大规模AI模型训练,资源池具备弹性扩展能力。
  • 具备容错调度能力,全面满足模型训练的需求。
  • 实时监测节点健康,保护训练任务。
AI在线推理
AI在线推理
保障推理基本性能、高效高速高可靠应对推理潮汐需求
  • 按量付费应对峰值推理需求,包月保障基本推理服务。
  • 提供高速低延迟的网络支持,高性能的GPU计算服务器。
  • 适应处理大规模推理场景,根据需求弹性调整资源。
模型微调
模型微调
完备的计算资源保障各类微调任务
  • 高性能高可靠支持各种模型的参数调整和模型优化,满足不同规模的微调任务的需求
  • 结合按量计费模式,优化资源使用效率。
开发机技术验证
开发机技术验证
供稳定、高性能、高性价比的开发环境和验证平台
  • 支持快速开发、测试和部署
  • 资源弹性适配峰谷需求,降低成本。
01AI模型训练
02AI在线推理
03模型微调
04开发机技术验证
AI模型训练
AI模型训练
快速、稳定、高效、可靠完成训练任务
  • 强大的分布式计算能力,顶级性能的计算服务器,高速低延时的RDMA网络。
  • 支持大规模AI模型训练,资源池具备弹性扩展能力。
  • 具备容错调度能力,全面满足模型训练的需求。
  • 实时监测节点健康,保护训练任务。
AI在线推理
AI在线推理
保障推理基本性能、高效高速高可靠应对推理潮汐需求
  • 按量付费应对峰值推理需求,包月保障基本推理服务。
  • 提供高速低延迟的网络支持,高性能的GPU计算服务器。
  • 适应处理大规模推理场景,根据需求弹性调整资源。
模型微调
模型微调
完备的计算资源保障各类微调任务
  • 高性能高可靠支持各种模型的参数调整和模型优化,满足不同规模的微调任务的需求
  • 结合按量计费模式,优化资源使用效率。
开发机技术验证
开发机技术验证
供稳定、高性能、高性价比的开发环境和验证平台
  • 支持快速开发、测试和部署
  • 资源弹性适配峰谷需求,降低成本。
全线产品持续上新,推诚相与,合作共赢

专业的AI解决方案、先进的AI产品助力您的业务实现新的突破