kubernetes – 发布系统支持灰度发布功能
灰度发布对于任何一个拥有较大业务流量的公司都是不可或缺的,我的公司也不例外。
Theme: razia by ashathemes.
灰度发布对于任何一个拥有较大业务流量的公司都是不可或缺的,我的公司也不例外。
公司是直接购买的云上K8S,厂商提供的大2层虚拟化网络,也因此踩到了一个大坑。
前面讲了underlay的2种主要思路,一种是大2层方案,一种是3层网关路由方案。 今天简单讲讲overlay.
最近我录制了2个视频,分别介绍了kubernetes的2层虚拟化方案和3层虚拟化方案,应该可以帮助大家快速的理.
今天人肉巡检了一下kubernetes集群,发现grafana大盘上有一些failed的POD,之前没有见到过.
kubernetes网络问题接二连三,这周分析了一个大2层网络的大坑,下面给大家分享一下整个过程。
大家普遍使用deployment来部署业务,使用prometheus来监控k8s集群,这些没有什么好说的。
虚拟机运行php应用的时候,多个php应用共享虚拟机上同一套php-fpm进程池,很难(也不需要)评估单个应用.
这是宝贵的一线生产经验(涉及到一点关于特定云厂商的内容),如果对大家有帮助请不吝打赏,谢谢支持。
据运维同时反馈,在kubernetes 1.16集群应用kubernetes 1.15集群的prometheu.
无论我们用kubectl还是通过sdk编程访问kubernetes,其实都是在于apiserver通讯,而这个.
大家好,我是来自什么值得买的前台业务架构师owenliang,近期正在推动业务向kubernetes迁移,在这.
在之前的博客中,我尝试通过调大conntrack表的hash桶数量来解决调用超时问题,但实际上线问题并没有明显.
这几天对线上K8S集群的应用做性能压测,发现了诡异的现象:
我司发布平台的docker打包是基于jenkins执行的,可以想象多个构建任务并发在jenkins机器上执行d.
问题背景是这样的:
上K8S并不能直接带来成本的降低,除非实现自动弹性伸缩容。
一直对网桥的原理比较晕,今天幸运读到一篇博客,它把网桥与容器的流量路径讲的很清楚,所以在这里略作总结。
最近上K8S,遇到了发布引发调用方超时的困扰,经过一周多的折腾,问题得到了定位,对kube-proxy这一套工.
相信大家在使用K8S的时候,都会遇到发布应用引起调用方超时/中断报错的问题,要解决这个问题需要对K8S的工作原.