Kubernetes CrashLoopBackOff(Pod无限循环中不断挂掉重启)如何排除故障

中秋明月,豪门有,贫家也有。极慰人心。 ——烽火戏诸侯《剑来》

写在前面


  • 整理 CrashLoopBackOff 排故相关笔记分享给小伙伴。
  • 博文内容涉及:
    • 什么是 CrashLoopBackOff ?
    • 如何对 CrashLoopBackOff 排故?
  • 理解不足小伙伴帮忙指正

中秋明月,豪门有,贫家也有。极慰人心。 ——烽火戏诸侯《剑来》


什么是 CrashLoopBackOff ?

CrashLoopBackOff 是在 k8s 中较常见的一种 Pod 异常状态,最直接的表述,集群中的 Pod 在不断的重启挂掉,一直循环,往往 Pod 运行几秒钟 因为程序异常会直接死掉,没有常驻进程,但是 容器运行时 会根据 Pod 的重启策略(默认为:always)一直的重启它,所以会 CrashLoopBackOff

pod的重启策略 restartpolicy:pod在遇到故障之后重启的动作:

  • always:当容器退出时,总是重启容器,默认策略
  • onfailure:当容器异常退出(退出状态码非0)时,重启容器
  • nerver:当容器退出时,从不重启容器

复现很容易,可以简单的启动一个 busybox 容器,sleep 一会,exit 指定异常退出状态码

1
2
3
4
5
6
7
8
9
10
11
12
apiVersion: v1
kind: Pod
metadata:
name: crashlookbackoff-pod
spec:
containers:
- name: busybox
image: busybox
args:
- /bin/sh
- -c
- sleep 5;exit 3

安装了 Istio ,所以自动注入了初始化容器istio-init 和容器代理 istio-proxy

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl apply -f crashlookbackoff_pod.yaml
pod/crashlookbackoff-pod created
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl get pods crashlookbackoff-pod -w
NAME READY STATUS RESTARTS AGE
crashlookbackoff-pod 0/2 Init:0/1 0 10s
crashlookbackoff-pod 0/2 PodInitializing 0 12s
crashlookbackoff-pod 1/2 Running 0 30s
crashlookbackoff-pod 0/2 Error 0 38s
crashlookbackoff-pod 1/2 Error 0 39s
crashlookbackoff-pod 2/2 Running 1 (21s ago) 55s
crashlookbackoff-pod 1/2 Error 1 (27s ago) 61s
crashlookbackoff-pod 1/2 CrashLoopBackOff 1 (11s ago) 71s
crashlookbackoff-pod 2/2 Running 2 (13s ago) 73s
crashlookbackoff-pod 1/2 Error 2 (18s ago) 78s
crashlookbackoff-pod 1/2 CrashLoopBackOff 2 (17s ago) 94s
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$

当然,这是 会触发 CrashLoopBackOff 的其中一种原因,实际生产中还有很多其他场景

Pod 内容器化应用程序异常退出

在最上面的问题复现即是这种情况,容器中的进程因为内部原因挂掉,对于这种情况,需要根据 Pod 日志信息来排查问题,对代码中的问题进行处理。也可以通过 kubectl describe pods 来定位问题的原因

  • 程序本身有 Bug,导致常驻进程挂掉
  • 需要加载的配置信息,需要获取的其他信息没有加载到,或者是设置错误 ,程序报错挂掉,获取无法正常启动
  • 容器需要的 pod 内部资源被占用 比如端口,文件系统等 ,文件系统只读,一个 pod 的两个容器同时监听一个端口
  • 网络方面,无法连接或者访问某个服务,程序超时挂掉,或者在微服务中依赖的相关服务没有起来或者挂掉。

健康检查配置异常

Kubernetes 对 Pod 的健康状态可以通过两类探针来检查: LivenessProbeReadinessProbe,检测方式都有三种(exec/TCP/HTTP) 这里我们只考虑第一种LivenessProbe,LivenessProbe 用于检查服务是否存活 在返回失败后 kubelet 会杀掉容器,根据重启策略重启启动一个,ReadinessProbe用于检测 pod 对应的服务是否会提供能力,当返回失败的会把对应的 endpoint 从 Service 负载列表中移除。

LivenessProbe 中如果配置错误,那么探针返回的永远都是失败,那么 kubelet 会认为 pod 已经死掉,会杀掉当前进程,重启一个新的 pod,以此循环,触发 CrashLoopBackOff

资源不足

这种情况在我的本地实验环境中遇到很多几次,实验环境为物理机上的虚机环境,资源不足导致容器无法加载,往往是在使用 HELM 或者其他工具安装部署大量 API 对象,涉及大量工作负载时会发生,比如 ELK 或者 普罗米修斯,其他的一些很重的客户端或者观测工具相关部署时,部分 Pod 状态会变成这样.

大部分原因是因为默认的 LivenessProbe 配置的时间内, Pod 因为资源的问题无法正常运行。健康检查返回 失败,kubelet 会杀掉 pod 重新启动。以此循环。还有一种情况是内存不够触发 OOM killer,pod 容器进程被干掉导致。

对于这种情况,可以调整工作负载相关控制器对应的副本数,会尝试调小一点,如果没办法调整,一般不去理会,等几个小时自己就好了 :) ,建议尝试调整相关资源限制,pod 的 resources(考虑Qos) 或者 考虑 LimitRangeResource Quotas(没有实际调整过,感觉没什么用,应该只涉及到准入检查)

容器安全相关策略影响

这种情况在k8s社区发新版 OKD(OPenshift) 中遇到几次,创建应用会提示类型告警

1
* WARNING: Image "registry.lab.example.com/nginx" runs as the 'root' user which may not be permitted by your cluster administrator

在对于上面提示的这种清理,原因是 Openshift 默认的 SCC 中,不支持以root方式,启动, SCC 默认模式中启动 Pod 进程是以随机用户执行 command 的,如果该容器中 command 命令要求 root 用户执行,那么容器就无法创建,解决办法这里建议创建一个 新的 SA ,绑定可以通过 root 启动进程的 SCC,同时修改应用创建过程中其他的 用到 SA 的地方,当然,最暴力的做法是直接修改默认 SCC配置。

如何对 CrashLoopBackOff 排故

对于 CrashLoopBackOff 的问题定位,建议通过下面的方式进行。

检查事件

运行 kubectl describe pod [name]。查看 事件 信息,通过事件可以查看到 健康检查失败 等相关信息,比如下面的一些事件

  • Back-off restarting failed container.
  • Liveness probe failed: XXXX

可能是资源不够用,导致 pod 没有启动成功,健康检查判断失败,任务 pod 已经挂掉,所以 kubelet 会反复杀掉当前 pod 重启一个。也可能是 健康检查配置问题,配置的检测条件是一个持续失败的条件。看一个 demo .

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
apiVersion: v1
kind: Pod
metadata:
name: crashlookbackoff-pod
spec:
containers:
- name: busybox
image: busybox
args:
- /bin/sh
- -c
- sleep infinity
livenessProbe:
exec:
command:
- cat
- /tmp/liruilong
initialDelaySeconds: 5 #容器启动的5s内不监测
periodSeconds: 5 #每5s钟检测一次

上面的是一个配置健康检查的 pod,检查方式为 exec ,这是一个永远返回失败的条件,所以正常会触发 CrashLoopBackOff,下面为通过 kubectl describe pods crashlookbackoff-pod 查看事件信息。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl describe pods crashlookbackoff-pod | grep -A 20 -i event
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 17m default-scheduler Successfully assigned default/crashlookbackoff-pod to vms106.liruilongs.github.io
Normal Pulled 17m kubelet Container image "docker.io/istio/proxyv2:1.16.2" already present on machine
Normal Created 17m kubelet Created container istio-init
Normal Started 17m kubelet Started container istio-init
Normal Pulled 17m kubelet Successfully pulled image "busybox" in 15.691344116s
Normal Pulled 17m kubelet Container image "docker.io/istio/proxyv2:1.16.2" already present on machine
Normal Created 17m kubelet Created container istio-proxy
Normal Started 17m kubelet Started container istio-proxy
Warning Unhealthy 17m (x2 over 17m) kubelet Readiness probe failed: Get "http://10.244.31.80:15021/healthz/ready": dial tcp 10.244.31.80:15021: connect: connection refused
Normal Pulled 16m kubelet Successfully pulled image "busybox" in 15.599021058s
Normal Created 16m (x2 over 17m) kubelet Created container busybox
Normal Started 16m (x2 over 17m) kubelet Started container busybox
Warning Unhealthy 16m (x6 over 17m) kubelet Liveness probe failed: cat: can't open '/tmp/liruilong': No such file or directory
Normal Killing 16m (x2 over 17m) kubelet Container busybox failed liveness probe, will be restarted
Normal Pulling 12m (x6 over 17m) kubelet Pulling image "busybox"
Warning BackOff 2m39s (x36 over 11m) kubelet Back-off restarting failed container
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl get pods crashlookbackoff-pod -w
NAME READY STATUS RESTARTS AGE
crashlookbackoff-pod 1/2 CrashLoopBackOff 7 (3m4s ago) 15m

可以看到 Liveness probe failed: ,Back-off restarting failed container 相关的事件,在生产环境可以通过 服务可用性检查相关定位问题,是检查配置错误,还是资源不够用,如果是资源问题,是否需要调整 periodSeconds 或 initialDelaySeconds 给应用程序更多的启动时间。

检查日志

如果上一步没有提供任何细节或无法识别,下一步我们可以通过日志信息获取相关信息。

类似在最上面的 Demo,模拟程序 bug 的 sleep 5;exit 3,我们查看事件信息,基本上得不到有用的信息(见下面的代码), Back-off restarting failed container 只是告诉我们容器重启失败。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl describe pods crashlookbackoff-pod | grep -A 20 Events:
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 9m52s default-scheduler Successfully assigned default/crashlookbackoff-pod to vms106.liruilongs.github.io
Normal Pulled 9m50s kubelet Container image "docker.io/istio/proxyv2:1.16.2" already present on machine
Normal Created 9m50s kubelet Created container istio-init
Normal Started 9m50s kubelet Started container istio-init
Normal Pulled 9m49s kubelet Successfully pulled image "busybox" in 1.007350697s
Normal Created 9m48s kubelet Created container istio-proxy
Normal Pulled 9m48s kubelet Container image "docker.io/istio/proxyv2:1.16.2" already present on machine
Normal Started 9m47s kubelet Started container istio-proxy
Normal Pulled 9m26s kubelet Successfully pulled image "busybox" in 15.685743099s
Normal Pulled 8m53s kubelet Successfully pulled image "busybox" in 16.040759951s
Normal Pulling 8m22s (x4 over 9m50s) kubelet Pulling image "busybox"
Normal Created 8m6s (x4 over 9m48s) kubelet Created container busybox
Normal Started 8m6s (x4 over 9m48s) kubelet Started container busybox
Normal Pulled 8m6s kubelet Successfully pulled image "busybox" in 15.878975739s
Warning BackOff 4m50s (x15 over 9m20s) kubelet Back-off restarting failed container
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl get pods crashlookbackoff-pod
NAME READY STATUS RESTARTS AGE
crashlookbackoff-pod 1/2 CrashLoopBackOff 6 (2m27s ago) 10m
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$

这里可以通过日志信息定位问题

检查 pod 日志

通过 kubectl logs [podname] -c [containername] 获取pod日志信息,如果只有一个 容器,则不需要 -c 参数。这里看一个我前段时间遇到 CrashLoopBackOff 的问题, 在安装阿里开源的一个 k8s 工作负载增强工具 Kruise 的时候,DS 资源一直在重启

下面为通过 Helm 部署后的资源查看

1
2
3
4
5
6
7
8
9
10
11
12
13
┌──[root@vms100.liruilongs.github.io]-[~/ansible/openkruise]
└─$kubectl get all -n kruise-system
NAME READY STATUS RESTARTS AGE
pod/kruise-controller-manager-7dc584559b-j8j78 1/1 Running 0 2m31s
pod/kruise-controller-manager-7dc584559b-r954q 1/1 Running 0 2m32s
pod/kruise-daemon-24fgt 0/1 CrashLoopBackOff 4 (9s ago) 2m33s
pod/kruise-daemon-7t5q6 0/1 CrashLoopBackOff 4 (11s ago) 2m32s
pod/kruise-daemon-fbt8m 0/1 CrashLoopBackOff 4 (16s ago) 2m33s
pod/kruise-daemon-fc8xr 0/1 CrashLoopBackOff 4 (11s ago) 2m32s
pod/kruise-daemon-kjjfd 0/1 CrashLoopBackOff 4 (15s ago) 2m32s
pod/kruise-daemon-krs9s 0/1 CrashLoopBackOff 4 (17s ago) 2m33s
pod/kruise-daemon-lb5nq 0/1 CrashLoopBackOff 4 (15s ago) 2m32s
pod/kruise-daemon-zpfzg 0/1 CrashLoopBackOff 3 (32s ago) 2m32s

通过对 DS 的日志查看发现,它通过默认的 CRI 接口实现找不到对应的 runtime 容器运行时,

1
2
3
4
5
W0228 07:29:31.671667       1 mutation_detector.go:53] Mutation detector is enabled, this will result in memory leakage.
E0228 07:29:31.671746 1 factory.go:224] /hostvarrun/docker.sock exists, but not found /hostvarrun/dockershim.sock
W0228 07:29:31.767342 1 factory.go:113] Failed to new image service for containerd (, unix:///hostvarrun/containerd/containerd.sock): failed to fetch cri-containerd status: rpc error: code = Unimplemented desc = unknown service runtime.v1alpha2.RuntimeService
W0228 07:29:31.767721 1 mutation_detector.go:53] Mutation detector is enabled, this will result in memory leakage.
panic: runtime error: invalid memory address or nil pointer dereference

重点在这一句: /hostvarrun/docker. sock exists, but not found /hostvarrun/dockershim.sock | Failed to new image service for containerd... , docker. sock 存在,但是没有找到 dockershim.sock,创建新的镜像服务失败.

无法识别 CRI 接口实现,k8s 在 1.24 版本测底移除了dockershim 的CRI接口实现,当前版本为 1.25,所以找不到对应的 CRI实现,高版本容器运行时还是用 docker 的话,需要安装一个 cri-docker 的CRI接口实现, 所以这里需要告诉这些 DS, CRI 的接口实现是cri-docker不是默认的dockershim

最后提了 issue ,有大佬指出可以在部署时指定 ,daemon.socketLocation=/var/run/,daemon.socketFile=cri-dockerd.sock。指定之后工具可以顺利安装。

检查 deploy 日志

运行以下命令以检索 kubectl 部署日志

1
2
3
4
5
6
7
8
9
10
11
12
13
┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
└─$kubectl logs -f deployments/release-name-grafana
Found 2 pods, using pod/release-name-grafana-76f4b7b77d-bbvws
[2023-03-26 03:14:28] Starting collector
[2023-03-26 03:14:28] No folder annotation was provided, defaulting to k8s-sidecar-target-directory
[2023-03-26 03:14:28] Selected resource type: ('secret', 'configmap')
[2023-03-26 03:14:28] Loading incluster config ...
[2023-03-26 03:14:28] Config for cluster api at 'https://10.96.0.1:443' loaded...
[2023-03-26 03:14:28] Unique filenames will not be enforced.
[2023-03-26 03:14:28] 5xx response content will not be enabled.
[2023-03-26 03:14:34] Working on ADDED configmap default/release-name-kube-promethe-controller-manager
[2023-03-26 03:14:34] Working on ADDED configmap default/release-name-kube-promethe-namespace-by-pod
................

这也可能提供有关应用程序级别问题的线索。例如,您可以在下面看到一个显示./data can’t be mounted,可能是因为它已被使用并被其他容器锁定。

资源限制

由于内存资源不足,触发 OOM killer,可能会遇到 CrashLoopBackOff 错误。可以通过更改容器资源清单中的 resources:limits来增加内存限制。 或者考虑重 Qos 设置,提高 Qos 等级等。

这里为什么只有内存,计算资源有很多,CUP,GPU之类,这因为 CPU 是可压缩资源。内存是不可压缩资源,比如对于一个 Pod 来讲。

  • 当CUP不够时, cgroups 会对 Pod 中的容器的 CPU 使用进行限流(Throttled)
  • 当内存不够时,如果 Pod 使用的内存量超过了它的 Requests 的配置,那么这个 Pod 有可能被 Kubernetes 杀掉,如果 Pod 使用的内存量超过了它的 Limits 设置,那么操作系统内核会杀掉 Pod 所有容器的所有进程中使用内存最多的一个,直到内存不超过 Limits 为止。

安全上下文影响

有的时候需要考虑安全上下文 SC 的设置是否满足,在 k8s 社区发新版 Openshift 遇到一次,OKD 中容器默认是以随机用户执行 command 的,如果该容器中 command 命令要求 root 用户执行,那么容器就无法创建,即 OKD 默认的 SCC 不支持使用 root 来启动Pod进程,会照成 CrashLoopBackOff

看一个 具体的 Demo,创建

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[root@master student]# oc new-app --name=nginx --docker-image=registry.lab.example.com/nginx
--> Found Docker image c825216 (4 years old) from registry.lab.example.com for "registry.lab.example.com/nginx"

* An image stream will be created as "nginx:latest" that will track this image
* This image will be deployed in deployment config "nginx"
* Port 80/tcp will be load balanced by service "nginx"
* Other containers can access this service through the hostname "nginx"
* WARNING: Image "registry.lab.example.com/nginx" runs as the 'root' user which may not be permitted by your cluster administrator

--> Creating resources ...
imagestream "nginx" created
deploymentconfig "nginx" created
service "nginx" created
--> Success
Application is not exposed. You can expose services to the outside world by executing one or more of the commands below:
'oc expose svc/nginx'
Run 'oc status' to view your app.

创建对应的路由

1
2
3
4
5
6
7
[root@master student]# oc expose svc/nginx
route "nginx" exposed
[root@master student]# kubectl get route
NAME HOST/PORT PATH SERVICES PORT TERMINATION WILDCARD
docker-registry docker-registry-default.apps.lab.example.com docker-registry <all> passthrough None
nginx nginx-default.apps.lab.example.com nginx 80-tcp None
registry-console registry-console-default.apps.lab.example.com registry-console <all> passthrough None

这个时候我们查看 Pod 信息

1
2
3
4
5
6
7
8
[root@master student]# kubectl  get pods
NAME READY STATUS RESTARTS AGE
docker-registry-1-drmbk 1/1 Running 2 1d
nginx-1-deploy 1/1 Running 0 45s
nginx-1-h5zx8 0/1 CrashLoopBackOff 2 42s
registry-console-1-dg4h9 1/1 Running 2 1d
router-1-27wtd 1/1 Running 2 1d
router-1-lvmvk 1/1 Running 2 1d

可以看到 pod 一直创建失败,CrashLoopBackOff

1
2
3
4
[root@master student]# kubectl  get pods  --selector=app=nginx
NAME READY STATUS RESTARTS AGE
nginx-1-h5zx8 0/1 CrashLoopBackOff 6 6m
[root@master student]#

在最前面的 Pod 创建的时候,我们看到一个告警,提示提示,以root 的方式运行不被集群管理员所允许。所以 Pod 状态一直是 CrashLoopBackOff.

1
* WARNING: Image "registry.lab.example.com/nginx" runs as the 'root' user which may not be permitted by your cluster administrator

查看事件,只是提示 BackOff,

1
2
3
4
5
6
7
8
9
10
11
12
[root@master student]# oc describe pods nginx-1-h5zx8 | grep -i -A 20 event
Events:
Type Reason Age From Message
---- ------ ---- ---- -------
Normal Scheduled 13m default-scheduler Successfully assigned nginx-1-h5zx8 to node2.lab.example.com
Normal SuccessfulMountVolume 13m kubelet, node2.lab.example.com MountVolume.SetUp succeeded for volume "default-token-bmctn"
Normal Pulled 12m (x4 over 13m) kubelet, node2.lab.example.com Successfully pulled image "registry.lab.example.com/nginx@sha256:4ffd9758ea9ea360fd87d0cee7a2d1cf9dba630bb57ca36b3108dcd3708dc189"
Normal Created 12m (x4 over 13m) kubelet, node2.lab.example.com Created container
Normal Started 12m (x4 over 13m) kubelet, node2.lab.example.com Started container
Normal Pulling 11m (x5 over 13m) kubelet, node2.lab.example.com pulling image "registry.lab.example.com/nginx@sha256:4ffd9758ea9ea360fd87d0cee7a2d1cf9dba630bb57ca36b3108dcd3708dc189"
Warning BackOff 3m (x46 over 13m) kubelet, node2.lab.example.com Back-off restarting failed container
[root@master student]#

通过日志信息,可以看到是没有权限的问题,对于这样的问题,实际上我们在第二步日志检查就会定位到问题,这里单独拿出来是应该如果发现日志是没有权限的问题,需要考虑是安全上下文的问题。

1
2
3
4
5
6
[root@master student]# oc logs  nginx-1-h5zx8
2023/04/14 11:42:31 [warn] 1#1: the "user" directive makes sense only if the master process runs with super-user privileges, ignored in /etc/nginx/nginx.conf:2
nginx: [warn] the "user" directive makes sense only if the master process runs with super-user privileges, ignored in /etc/nginx/nginx.conf:2
2023/04/14 11:42:31 [emerg] 1#1: mkdir() "/var/cache/nginx/client_temp" failed (13: Permission denied)
nginx: [emerg] mkdir() "/var/cache/nginx/client_temp" failed (13: Permission denied)
[root@master student]#

这个时候,我们可以修改默认的 SCC 相关的权限,允许 root 来启动容器进程,或者通过创建新的 SA 的方式,创建服务帐户;将特定 SCC(如 anyuid)绑定到服务账户;修改 dc 使用创建的 sa 用户身份运行和其他涉及到到的 SA。

镜像问题

如果仍然存在问题,另一个原因可能是您使用的docker镜像可能无法正常工作,您需要确保单独运行时它可以正常工作。如果这对 Kubernetes 有效但失败了,您可能需要提前找到正在发生的事情,尝试以下操作,

确定 entrypoint 和 cmd

需要确定 entrypointcmd 以获得对容器的访问权限以进行调试。请执行下列操作:

  • 运行docker pull [image-id] 拉取镜像。
  • 运行docker history 6600fae04efd --no-trunc 并找到容器的启动命令,或者可以使用docker inspect [image-id]
    1
    2
    3
    4
    5
    6
    ┌──[root@vms100.liruilongs.github.io]-[~/ansible/crashlookbackoff_demo]
    └─$docker history 6600fae04efd --no-trunc
    ................
    ... /bin/sh -c #(nop) CMD ["haproxy" "-f" "/usr/local/etc/haproxy/haproxy.cfg"]
    ... /bin/sh -c #(nop) ENTRYPOINT ["/docker-entrypoint.sh"]
    .................

覆盖 entrypoint

由于容器崩溃无法启动,需要暂时将Dockerfile 的 entrypoint 更改为 tail -f /dev/null

1
2
3
Spec:
containers:
- command: ['tail','-f','/dev/null']

检查原因

使用命令行 kubectl exec 执行进入问题容器。

1
2
3
4
5
┌──[root@vms100.liruilongs.github.io]-[/etc/kubernetes/manifests]
└─$kubectl exec -it release-name-grafana-76f4b7b77d-ddr7k -- sh
/app $ ls
helpers.py resources.py sidecar.py
/app $

单独启动进程,查看日志,确认配置信息。存在问题修复。

社区提问,请教大佬

如果问题还是没有解决,可以在相对活跃的社区提问,请教大佬,比如 StackOverflow 或者 Slack

博文部分内容参考

© 文中涉及参考链接内容版权归原作者所有,如有侵权请告知


https://foxutech.medium.com/kubernetes-crashloopbackoff-how-to-troubleshoot-940dbb16bc84


© 2018-至今 liruilonger@gmail.com, All rights reserved. 保持署名-非商用-相同方式共享(CC BY-NC-SA 4.0)

Kubernetes CrashLoopBackOff(Pod无限循环中不断挂掉重启)如何排除故障

https://liruilongs.github.io/2023/01/29/K8s/环境部署-运维/关于k8s故障-CrashLoopBackOff-的一些笔记/

发布于

2023-01-29

更新于

2024-11-22

许可协议

评论
加载中,最新评论有1分钟缓存...
Your browser is out-of-date!

Update your browser to view this website correctly.&npsb;Update my browser now

×