Kubernetes 运维操作手册:从 etcd 快照进行精确恢复

发布于:2025-05-15 ⋅ 阅读:(14) ⋅ 点赞:(0)

1

   

5 步实现 etcd 精确恢复

  1. 将快照恢复到本地 etcd 数据目录。

  2. 使用恢复的数据启动本地 etcd 实例。

  3. 使用 etcdctl 查询特定键(例如,ConfigMap)。

  4. 使用 auger 解码以提取干净的 YAML。

  5. 使用 kubectl 申请恢复到您的实时集群。

本指南将指导您从 etcd 快照中精准地恢复资源,而无需触发完整的集群恢复。无论您是要排除意外删除故障,还是进行取证调试,这种轻量级且有针对性的方法都能最大程度地减少停机时间。#Kubernetes

2

   

引言:🩺Kubernetes 操作里的紧急情况

etcd 是 Kubernetes 集群的核心,它是一个分布式键值存储系统,忠实地维护系统内每个对象的状态。但是,如果某个资源(例如 ConfigMap、Secret 或 Deployment)被删除或损坏,会发生什么情况呢?

启动完整的集群恢复就像进行心脏手术来修复纸张划伤一样。它具有破坏性、风险性,而且通常没有必要。

这就是手术精度发挥作用的地方。

想象一下,您的生产环境陷入危机——一个重要的 ConfigMap 消失了,Pod 崩溃了,用户只能盯着错误页面。完全回滚会比问题本身造成更大的损失。您需要的是一个“外科医生”式的方案:只修复损坏的部分,其他部分一概不做。

在本博客中,您将了解如何:

  1. 从 etcd 快照中隔离并提取特定资源

  2. 仅将所需内容直接恢复到实时 Kubernetes 集群中

  3. 避免不必要的停机并保持集群稳定性

  4. 非常适合重视最小影响恢复的 DevOps、SRE 和 Kubernetes 管理员。

3

   

先决条件🔧

为了继续操作,请确保您已具备:

  • etcd v3.4+ — etcd 服务器二进制文件可在此处获取

  • etcdctl — 与 etcd 交互的 CLI

  • auger — CLI 工具,用于将 etcd 的二进制有效负载解码为 YAML

  • kubectl — CLI 用于将资源应用于 Kubernetes 集群

  • 快照文件— 例如 live-cluster-snapshot.db

始终先在暂存环境中工作。从干净的快照开始:

etcdctl snapshot save live-cluster-snapshot.db

4

   

恢复过程🏥

假设 production 命名空间中一个关键的 ConfigMap app-config 被意外删除了。以下是如何将其恢复:

4.1

   

🧬 步骤 1:准备快照

如果压缩,请解压缩快照:

gunzip live-cluster-snapshot.db.gz

然后恢复它:

etcdctl snapshot restore live-cluster-snapshot.db --data-dir=recovery-etcd

4.2

   

🩻 第 2 步:启动本地 etcd 实例

etcd --data-dir=recovery-etcd --listen-client-urls=http://localhost:2379

核实:

etcdctl --endpoints=localhost:2379 endpoint status

4.3

   

🔍 步骤 3:定位并提取资源

Kubernetes 将 ConfigMap 存储在类似 /registry/configmaps//的键中。列出生产命名空间中的键:

etcdctl --endpoints=localhost:2379 get --prefix "/registry/configmaps/production" --keys-only你会看到类似这样的内容:

/registry/configmaps/production/app-config提取并解码 ConfigMap:

etcdctl --endpoints=localhost:2379 get /registry/configmaps/production/app-config --print-value-only | auger decode > app-config.yaml

生成的 app-config.yaml 可能如下所示:

apiVersion: v1  kind: ConfigMap  metadata:    name: app-config    namespace: production  data:    api-url: "https://api.example.com"    log-level: "debug"

4.4

   

步骤 4:恢复到集群

通过试运行来测试修复效果:

kubectl apply -f app-config.yaml --dry-run=server

如果一切检查无误,则应用它:

kubectl apply -f app-config.yaml

输出:

configmap/app-config created

4.5

   

🧹 步骤 5:清理

pkill etcdrm -rf recovery-etcd app-config.yaml

5

   

高级场景🔍

5.1

   

💠 跨命名空间恢复

cat app-config.yaml | yq eval '.metadata.namespace = "dev"' | kubectl apply -f -

5.2

   

🔐 加密集群 (KMS)

使用 etcdctl 并根据 etcd 加密指南配置解密密钥。📦批量恢复 

etcdctl --endpoints=localhost:2379 get --prefix "/registry/configmaps/production" --print-value-only | auger decode > all-cm.yaml

6

   

总结

最后的想法💡Kubernetes 管理员经常为灾难性故障做准备,但忽略了精确恢复的价值。能够精准地提取和恢复资源,并减少停机时间、防止附带损害、增强对事件响应的信心。当下次灾难来临时,您不会手忙脚乱,而是会采取行动。

随手关注或者”在看“,诚挚感谢!