Flink 的 JobManager 和 TaskManager 在内存分配上有不同的职责和结构。以下是两者的内存分类及详细说明:
一、JobManager 内存分类
JobManager 主要负责作业调度、协调(如 Checkpoint 协调)、资源管理等,其内存需求相对较低,主要分为以下几个部分:
1. JVM 堆内存(JVM Heap)
- 用途:
- 存储作业的元数据(如 JobGraph、ExecutionGraph)。
- 管理 Checkpoint 协调信息(如 Checkpoint 触发逻辑)。
- 处理客户端提交作业的请求(如 REST API 交互)。
- 配置参数:
jobmanager.memory.heap.size
:直接指定堆大小(如2048m
)。jobmanager.memory.heap.fraction
:按比例分配(需结合总内存配置)。
2. JVM 元空间(Metaspace)
- 用途:存储 JVM 加载的类元数据(Class Metadata)。
- 配置参数:
jobmanager.memory.jvm-metaspace.size
:默认约256m
,可通过-XX:MaxMetaspaceSize
调整。
3. JVM 直接内存(Direct Memory)
- 用途:用于 Netty 网络通信的堆外内存(如 JobManager 与 TaskManager 间的心跳通信)。
- 配置参数:
jobmanager.memory.off-heap.size
:默认较小(如128m
),一般无需调整。
4. JVM 开销(JVM Overhead)
- 用途:为 JVM 自身预留的内存(如线程栈、本地方法调用)。
- 配置参数:
jobmanager.memory.jvm-overhead.min
/max
/fraction
:通常占总内存的 10%。
5. 总内存公式
Total JobManager Memory =
Heap + Metaspace + Direct Memory + JVM Overhead + 其他(如 Native 库)
二、TaskManager 内存分类
TaskManager 是数据计算的核心组件,其内存结构更为复杂,主要分为以下部分:
1. 框架堆内存(Framework Heap)
- 用途:运行 Flink 框架本身的代码(如 Task 调度、Shuffle 管理)。
- 配置参数:
taskmanager.memory.framework.heap.size
:默认128m
,一般无需调整。
2. 任务堆内存(Task Heap)
- 用途:用户代码(如 Map、Filter 算子)的堆内存,存储用户创建的对象。
- 配置参数:
taskmanager.memory.task.heap.size
:直接指定大小。taskmanager.memory.task.heap.fraction
:按比例分配(默认0.4
)。
3. 托管内存(Managed Memory)
- 用途:Flink 自动管理的内存,用于批处理排序/哈希、RocksDB 状态后端、PyFlink 等(详见之前的总结)。
- 配置参数:
taskmanager.memory.managed.size
或taskmanager.memory.managed.fraction
(默认0.4
)。
4. 网络缓冲区(Network Buffers)
- 用途:TaskManager 间数据传输的缓冲区(如 Shuffle、Broadcast)。
- 配置参数:
taskmanager.memory.network.min
/max
/fraction
:默认占总内存的0.1
。- 每个 Buffer 大小:
taskmanager.memory.segment-size
(默认32KB
)。
5. JVM 元空间(Metaspace)
- 配置参数:
taskmanager.memory.jvm-metaspace.size
:默认256m
。
6. JVM 直接内存(Direct Memory)
- 用途:用于堆外数据(如 RocksDB 直接访问内存、Netty 网络传输)。
- 配置参数:
taskmanager.memory.off-heap.size
:默认不启用,需显式配置。
7. JVM 开销(JVM Overhead)
- 配置参数:
taskmanager.memory.jvm-overhead.min
/max
/fraction
:默认占总内存的0.1
。
8. 总内存公式
Total TaskManager Memory =
Framework Heap + Task Heap + Managed Memory + Network Buffers +
Metaspace + Direct Memory + JVM Overhead + 其他(如 Native 库)
三、配置示例与调优建议
1. JobManager 配置示例
jobmamager.memory.process.size: 8192m # 总内存
jobmanager.memory.heap.size: 4096m # 堆内存 4GB
jobmanager.memory.jvm-metaspace.size: 512m # 元空间 512MB
jobmanager.memory.jvm-overhead.max: 1024m # JVM 开销上限 1GB
2. TaskManager 配置示例
taskmamager.memory.process.size = 10240m # tm总内存
taskmanager.memory.task.heap.size: 4096m # 任务堆内存 4GB
taskmanager.memory.managed.size: 8192m # 托管内存 8GB(用于批处理或 RocksDB)
taskmanager.memory.network.fraction: 0.2 # 网络缓冲区占比 20%
taskmanager.memory.jvm-metaspace.size: 512m # 元空间 512MB
3. 调优建议
- JobManager:
- 小规模作业:堆内存 2~4GB 足够。
- 大规模作业(如千个 Task):需增大堆内存(如 8GB+)以处理更多元数据。
- TaskManager:
- 批处理作业:增大托管内存(占比 50%~70%)减少磁盘溢出。
- 流处理作业(使用 RocksDB):确保托管内存足够容纳 Block Cache(至少 1GB)。
- 高吞吐场景:增加网络缓冲区大小或占比,避免背压。
- 避免 OOM:
- 若用户代码占用堆内存过多,增大
taskmanager.memory.task.heap.size
。 - 若元空间不足,调整
-XX:MaxMetaspaceSize
。
- 若用户代码占用堆内存过多,增大
四、常见问题排查
JobManager OOM:
- 现象:作业提交失败或频繁 Full GC。
- 解决:增大
jobmanager.memory.heap.size
,检查元数据规模(如超大状态)。
TaskManager OOM:
- Task Heap OOM:用户代码生成过多对象 → 增大任务堆内存。
- Managed Memory OOM:批处理溢出频繁或 RocksDB 缓存不足 → 增大托管内存。
- Metaspace OOM:类加载过多 → 调整
-XX:MaxMetaspaceSize
。
网络瓶颈:
- 现象:反压(Backpressure)或低吞吐。
- 解决:增大
taskmanager.memory.network.fraction
或taskmanager.memory.segment-size
。
五、总结
- JobManager:轻量级协调者,内存需求集中在堆和元空间。
- TaskManager:核心计算节点,需平衡任务堆内存、托管内存和网络缓冲区。
- 调优核心:根据作业类型(批/流)、状态后端(Heap/RocksDB)和集群规模动态调整。建议通过 Flink Web UI 监控内存使用率,逐步优化配置。