istio(四)外部如何访问集群中的服务 — ingressgateway
接前文《istio(三)探索”目标规则(DestinationRule)”概念》,此前我们主要分析了isti.
Theme: razia by ashathemes.
接前文《istio(三)探索”目标规则(DestinationRule)”概念》,此前我们主要分析了isti.
接前文《istio(二)探索”虚拟服务”概念》,我们还有一点点剩余的内容需要继续探索,但相信你已经渐入佳境,.
接前文《istio(一)探索服务发现行为》,上一次我们探索了istio的默认服务发现能力。 本文我们探索”虚.
本文通过一个简单场景,向大家展现istio的服务发现工作原理。 我使用的minikube,大家需自行安装好i.
prometheus存在单点问题,具体痛点可以这么描述:
POD中的container因为程序BUG挂掉之后会进行container重启,POD自身不会重建,因此POD.
近日给公司的发布系统上跳板机,要求带有审计和操作回放,因此用GO做了一个K8S跳板机。
在上一篇《K8S部分业务POD内存持续泄露问题》博客中,我分析了1种POD持续内存泄漏的场景,如果你没读过的话.
线上K8S集群有极少量的PHP业务,它们的POD内存持续走高直到OOM,相信与特殊代码场景有关,需要展开分析。
在推动K8S落地到生产环境的半年时间内,我遇到了数不清的问题,真是一言难尽。
cluster-autoscaler是node级伸缩的一个服务,需要作为Deployment单实例部署。
HPA通过监控POD的CPU和MEM使用率,实现了默认的弹性伸缩功能。 然而,在实际环境中,伸缩的判断依据通常.
kube-scheduler调度POD是一次性决策的,一旦POD选定node运行起来,除非人工干预否则POD将.
在K8S集群中,出于对域名解析稳定性和性能的考虑,我们在POD内启动了nscd对解析结果进行缓存。
K8S版本:1.15.5,时间:2020-05-18
这周线上k8s踩到bug一枚,下面是整个问题的分析过程。
上周kubernetes集群开始出现各种超时问题,从调用链监控系统查看报错,大概表现有:
kubernetes集群的网络问题已经解决的差不多了,业务方也稳定的使用了一阵子了。
我们知道docker容器使用namespace实现资源隔离。
为什么要监控php-fpm的状态?