1. 概述
Volcano 作为业界领先的云原生批处理系统调度器,通过统一的调度系统实现了对所有工作负载类型的支持:
- 强大的批处理调度能力:通过 VcJob 完美支持 Ray、TensorFlow、PyTorch、MindSpore、Spark、Flink 等主流 AI 和大数据框架
- 完整的 Kubernetes 工作负载支持:可直接调度 Deployment、StatefulSet、Job、DaemonSet 等原生工作负载
这种统一调度能力让用户能够使用单一调度器来管理所有类型的工作负载,极大简化了集群管理复杂度。
2. 兼容Kubernetes调度能力
Volcano 通过实现 predicates 和 nodeorder 这两个核心调度插件,完全兼容了 Kubernetes 的调度机制。这两个插件分别对应了 Kubernetes 调度框架中的”预过滤(PreFilter)/过滤(Filter)“和”打分(Score)“阶段。
2.1. predicates插件
Volcano完整实现了Kube-Scheduler中的预过滤(PreFilter)-过滤(Filter)阶段,包括:
- 基础资源过滤:节点可调度性、Pod 数量限制等
- 亲和性/反亲和性:节点亲和性、Pod 间亲和性等
- 资源约束:节点端口、存储卷限制等
- 拓扑分布:Pod 拓扑分布约束等
- 动态资源分配 (Dynamic Resource Allocation, DRA): DRA允许您在集群中灵活地请求、分配和共享GPU等硬件资源。
- 关于DRA的详细介绍,请参考:dynamic-resource-allocation
- 关于如何在Volcano中启用DRA的详细步骤,请参考本文档后续的2.1.2. 在Volcano中启用DRA (Dynamic Resource Allocation)章节。
除了兼容 Kubernetes 的过滤器外,Volcano 还提供了以下增强特性:
2.1.1. 节点过滤结果缓存 (PredicateWithCache)
当调度器为 Pod 选择节点时,需要对每个节点进行一系列检查(如资源是否足够、是否满足亲和性要求等),这些节点过滤结果可以被缓存下来,如果后续还要调度多个完全相同配置的 Pod,可以直接使用之前的检查结果,避免重复进行相同的节点过滤计算,显著提升批量创建 Pod 时的调度性能。
2.1.1.1. 配置方法
在 volcano-scheduler-configmap 中启用缓存:
apiVersion: v1
kind: ConfigMap
metadata:
  name: volcano-scheduler-configmap
  namespace: volcano-system
data:
  volcano-scheduler.conf: |
    actions: "enqueue, allocate, backfill"
    tiers:
    - plugins:
      - name: predicates
        arguments:
          predicate.CacheEnable: true        # 启用节点过滤结果缓存
2.1.1.2. 使用场景
- 批量创建相同配置的 Pod - 例如:创建多个相同的 TensorFlow 训练任务
- 第一个 Pod 完成节点过滤后,后续 Pod 可直接使用缓存结果
 
- 大规模集群调度优化 
注意:
- 只有静态的检查结果才会被缓存(如节点标签、污点等)
- 动态资源相关的检查(如 CPU、内存用量)每次都会重新计算
- 当节点状态发生变化时,相关缓存会自动失效
2.1.2. 在Volcano中启用DRA (Dynamic Resource Allocation)
在Volcano调度器中启用动态资源分配(DRA)支持需要执行以下步骤。
2.1.2.1. 前提条件
在进行配置步骤之前,请确保您的集群满足以下前提条件:
2.1.2.1.1. 配置集群节点 (Containerd)
对于使用containerd作为容器运行时的节点,您必须启用容器设备接口 (Container Device Interface, CDI) 功能。这对于containerd与DRA驱动程序正确交互并将动态资源注入Pod至关重要。
修改每个节点上的containerd配置文件(通常是/etc/containerd/config.toml),确保包含以下设置:
# Enable CDI as described in
# https://tags.cncf.io/container-device-interface#containerd-configuration
[plugins."io.containerd.grpc.v1.cri"]
  enable_cdi = true
  cdi_spec_dirs = ["/etc/cdi", "/var/run/cdi"]
修改配置后,在每个节点上重启containerd服务以使更改生效。例如:sudo systemctl restart containerd
如果您使用其他容器运行时,请参考:如何配置CDI
2.1.2.2. 配置Kube-apiserver
DRA相关的API是Kubernetes内置资源而非CRD资源,在v1.32版本中这些资源默认未注册。因此,您需要设置kube-apiserver的启动参数以手动注册DRA相关的API。请在您的kube-apiserver清单文件或配置中添加或确保存在以下参数:
--runtime-config=resource.k8s.io/v1beta1=true
2.1.2.3. 安装启用了DRA特性门控的Volcano
安装Volcano时,您需要启用与DRA相关的特性门控(feature gates)。例如,当您需要使用DRA时,必须启用DynamicResourceAllocation。您也可以根据需要选择启用DRAAdminAccess特性门控来管理设备。
当使用Helm安装Volcano时,可以使用以下命令安装启用了DRA特性门控的Volcano:
helm install volcano volcano/volcano --namespace volcano-system --create-namespace \
  --set custom.scheduler_feature_gates="DynamicResourceAllocation=true" \
  # 根据您的安装需求添加其他必要的Helm values
当您直接使用kubectl apply -f安装Volcano时,需要在您的volcano-scheduler清单文件中添加或确保存在以下标志:
--feature-gates=DynamicResourceAllocation=true
2.1.2.4. 配置Volcano调度器插件
安装Volcano后,您需要配置Volcano调度器的插件配置,以在predicates插件参数中启用DRA插件。
找到您的Volcano调度器配置(一个包含配置的ConfigMap)。找到predicates插件的配置,并添加或修改其参数以启用DRA插件。
调度器配置(ConfigMap的volcano-scheduler.conf键中的内容)的一个示例片段可能如下所示:
actions: "enqueue, allocate, backfill"
tiers:
- plugins:
  - name: priority
  - name: gang
- plugins:
  - name: drf
  - name: predicates
    arguments:
      predicate.DynamicResourceAllocationEnable: true
  - name: proportion
  - name: nodeorder
  - name: binpack
2.1.2.5. 部署DRA驱动程序
要使用动态资源分配,您需要在集群中部署一个DRA驱动程序。该驱动程序负责管理动态资源的生命周期。 例如,您可以参考kubernetes-sigs/dra-example-driver来部署一个示例DRA驱动程序进行测试。
对于一些已在实际生产中使用的DRA驱动程序,您可以参考:
2.2. nodeorder插件
Volcano 在完全兼容 Kubernetes 默认打分机制的基础上,通过可配置的权重系统来实现更灵活的节点选择策略。同时,Volcano 实现了并行打分处理,显著提升了大规模集群的调度效率,特别适合 AI 训练等批处理场景。
2.2.1. 支持的打分维度
- 资源维度 - leastrequested: 优先选择资源占用少的节点,适合资源打散场景
- mostrequested: 优先选择资源占用多的节点,适合资源打包场景
- balancedresource: 在 CPU、内存等资源间寻求平衡,避免单一资源瓶颈
 
- 亲和性维度 - nodeaffinity: 根据节点亲和性规则打分
- podaffinity: 根据 Pod 间亲和性规则打分
- tainttoleration: 根据节点污点和 Pod 容忍度打分
 
- 其他维度 - imagelocality: 优先选择已有所需容器镜像的节点
- podtopologyspread: 确保 Pod 在不同拓扑域(如可用区)均匀分布
 
2.2.2. 配置示例
apiVersion: v1
kind: ConfigMap
metadata:
  name: volcano-scheduler-configmap
data:
  volcano-scheduler.conf: |
    actions: "enqueue, allocate, backfill"
    tiers:
    - plugins:
      - name: nodeorder
        arguments:
          # 资源维度权重配置
          leastrequested.weight: 1      # 默认权重为 1
          mostrequested.weight: 0       # 默认权重为 0(即默认不启用)
          balancedresource.weight: 1    # 默认权重为 1
          
          # 亲和性维度权重配置
          nodeaffinity.weight: 2        # 默认权重为 2
          podaffinity.weight: 2         # 默认权重为 2
          tainttoleration.weight: 3     # 默认权重为 3
          
          # 其他维度权重配置
          imagelocality.weight: 1       # 默认权重为 1
          podtopologyspread.weight: 2   # 默认权重为 2
3. 统一调度配置方式
通过配置 schedulerName: volcano,Volcano 可以统一调度 Kubernetes 原生工作负载和 Volcano 工作负载。
Kubernetes 原生工作负载
apiVersion: apps/v1
kind: Deployment
metadata:
  name: test
spec:
  replicas: 1
  template:
    spec:
      schedulerName: volcano  # 指定使用 Volcano 调度器
  ...
Volcano 工作负载
apiVersion: batch.volcano.sh/v1alpha1
kind: Job
metadata:
  name: test
spec:
  minAvailable: 1
  schedulerName: volcano  # Volcano 工作负载默认使用 volcano 调度器
  ...
统一调度的优势
Volcano 作为一个通用的批量计算系统,在继承 Kubernetes 原生调度能力的基础上,具有以下突出优势:
丰富的生态支持
- 完整的框架支持 - 支持 Ray、TensorFlow、PyTorch、MindSpore 等主流 AI 训练框架
- 支持 Spark、Flink 等大数据处理框架
- 支持 MPI 等高性能计算框架
 
- 异构设备支持 - 支持 GPU(CUDA/MIG)调度
- 支持 NPU 调度
 
增强的调度能力
- Gang Scheduling - 支持作业的整体调度
- 避免资源碎片化
- 适用于分布式训练等场景
 
- 队列资源管理 - 支持多租户资源隔离
- 支持队列间资源借用和回收
- 支持资源配额管理
 
统一的资源管理
- 资源视图统一
- 统一管理 CPU、内存、GPU/NPU 等异构资源
- 实现资源共享与隔离
- 提升整体资源利用率