本站用于记录日常工作内容,虚拟化云计算,系统运维,数据库DBA,网络与安全。
K8S Node节点禁止调度(平滑维护)方式- cordon,drain,delete cordon、drain和delete三个命令都会使node停止被调度,后期创建的pod不会继续被调度到该节点上,但操作的暴力程度却不一样。 一、cordon 停止调度 (不可调度,临时从K8S集群隔离) 影响最小,只会将node标识为SchedulingDisabled不可调度状态。 之后K8S再创建的pod资源,不会被调度到该节点。 旧有的pod不会受到影响,仍正常对外提供服务。 禁止调度命令"kubectl cordon node_name"。 恢复调度命令"kubectl uncordon node_name"。(恢复到K8S集群中,变回可调度状态) 二、drain 驱逐节点 (先不可调度,然后排干) 首先,驱逐Node上的pod资源到其他节点重新创建。 接着,将节点调为SchedulingDisabled不可调度状态。 禁止调度命令"kubectl drain node_name --force --ignore-daemonsets --delete-local-data" 恢复调度命令"kubectl uncordon node_name"。(恢复到K8S集群中,变回可调度状态) drain方式是安全驱逐pod,会等到pod容器应用程序优雅停止后再删除该pod。 drain驱逐流程:先在Node节点删除pod,然后再在其他N...
Ceph-deploy快速部署Ceph分布式存储 之前已详细介绍了Ceph分布式存储基础知识,下面简单记录下Centos7使用Ceph-deploy快速部署Ceph环境:1)基本环境 192.168.10.220 ceph-admin(ceph-deploy) mds1、mon1(也可以将monit节点另放一台机器)
192.168.10.239 ceph-node1 osd1
192.168.10.212 ceph-node2 osd2
192.168.10.213 ceph-node3 osd3
-------------------------------------------------
每个节点修改主机名
# hostnamectl set-hostname ceph-admin
# hostnamectl set-hostname ceph-node1
# hostnamectl set-hostname ceph-node2
# hostnamectl set-hostname ceph-node3
-------------------------------------------------
每个节点绑定主机名映射
# cat /etc/hosts
192.168.10.220 ceph-admin
192.168.10.239 ceph-node1
192.168.10.212 ceph-node2
192.168.10.213 ceph-node3
-------------------------------------------------
每个节点确认连通性
# ping -c 3 ceph-admin
# ping -c 3 ceph-node1
# ping -c 3 ceph-node2
# ping -c 3 cep...
Docker部署rancherv2.44及故障排查 目录列表 Docker部署rancherv2.44及故障排查 1.环境准备 2.获取rancher2.4.4镜像 3.部署rancher 4.访问rancher 4.1.设置语言为中文 4.2.设置站点url路径 4.3.rancher首页 5.添加k8s集群 5.1.点击添加集群 5.2.选择导入k8s集群 5.3.填写集群名称点击创建 5.4.保存imprt命令 5.5.在master运行命令导入rancher 5.6.查看系统pod 5.7.如何升级pod 5.8.如何执行命令 6.故障排查 6.1.cattle-cluster-agent-c66cd4f58-xhfhs pod一直处于ContainerCreating状态 6.2.解决rancher仪表盘变红错误 6.2.1.问题描述 6.2.2.问题解决 1.环境准备 操作系统:CentOS 7.5
Docker:19.03.13
Rancher:v2.4.4
2.获取rancher2.4.4镜像 [root@bogon ~]# docker pull rancher/rancher:v2.4.4
v2.4.4: Pulling from rancher/ranch...
k8s对接Jenkins 1.jenkins工作流程 1.开发还是一样的写java代码,写好java代码后提交到gitlab仓库中,Jenkins在通过gitlab去拉取这些代码,开发只需要在Jenkins页面上点一下立即构建,就会调用shell命令将代码通过docker build 来构建镜像。
2.dockerfile一般研发同事会写好,如果研发不会写,运维也可以帮忙写,通用是这样的,由运维构建一个只有lnmp的镜像,研发在写dockerfile时from指定lnmp的镜像即可了。
3.构建完docker镜像后会将镜像上传到私有仓库中。
4.一般会在Jenkins服务器远程通过kubectl -s apiserver地址去调用k8s管理命令去启动一个容器,kube-apiserver会调用node节点去私有仓库获取镜像并运行开始工作。
5.如果是全新部署直接使用run命令部署即可,在用expose开放端口,过滤出svc的端口发个邮件提示上线成功。
整个流程就是,开发写代码---将代码上传至gitlab---Jenkins在从gitlab上获取代码并通过shell命令去构建成镜像---将镜像上传至私有仓库---在调用kube-apiserver去调度kubelet创建容器---并上线
2.环境规划 ip 服务 内存 192.168.81.210 kube-apiserver 8080 ...
2020-11-02 使用K8s部署MySQL 双主集群 机器 角色 mysql-0 master\slave mysql-1 slave\master 最近对线上集群做高可用升级,在对比了几个集群策略之后,综合现有资源、复杂度、可用度之后,选择了两个: MySQL双主的互为备份的2节点集群 MySQL基于wsrep协议的Galera Cluster的mysql多主集群 初步处于复杂度考虑,选择了方案一。 方案一又有两个版本: 利用keepalived做活跃监督 利用k8s service做负载均衡,达到和活跃监督一样的效果 我们选择最简单的k8s service,先做测试。无论哪一种,首先都要实现双主的互为备份的2节点部署。 一、部署 选择 dockerhub上的MySQL:5.7.32作为基础镜像。依赖于镜像本身的启动命令,做修改,然后部署。 1.Dockerfile 以dockerhub...
基于 Helm 高可用安装 # 准备工作 请确认现有 Kubernetes 集群满足 前提条件。 高可用安装模式适用于生产环境,Erda 的核心组件及重要依赖均采用多副本方案部署。该模式默认提供配置参数,同时请注意以下事项: MySQL 不支持高可用,建议您接入自己的 MySQL 或云服务商 RDS 以保证稳定性,具体请参见 如何接入已有中间件。 建议您妥善保存私有化配置,以便后续升级维护,具体请参见 如何保存私有化配置。 该模式默认提供 Erda 及依赖的配置参数,您可以根据实际部署情况修改,具体请参见 高可用部署可配置参数。 若您希望合理划分 Erda 组件及依赖组件的节点,请参见 高可用组件分类调度。 添加 Erda Helm Chart 仓库并更新。 helm repo add erda https://charts.erda.cloud/erda
helm repo update
# 安装操作 # 安装配置 您可以通过配置文件描述 Erda 高可用安装的个性化配置,例如 custom_values.yaml: global:
size: prod
domain: "erda.io"
erda:
clusterName: "local-cluster"
mysql:
enbaled: false
custom:
address: "rds.xxx.com"
port: "3306"
...
关于 Erda Erda 是什么 Erda 是新一代数字化云原生 PaaS 平台,其核心包含三大模块:应用(微服务)研发治理平台、快数据治理平台和混合云管理平台。 应用(微服务)研发治理平台具备项目管理、API 管理、CI/CD、自动化测试、应用管理、监控、日志分析、APM 和微服务观测等核心功能,从需求分析到上线交付,实现真正的一站式全流程管理。 快数据治理平台采用流批一体的架构设计,基于实时的数据计算,提供数据源管理、数据地图、数据模型开发、数据资产、数据血缘等一体化的数据治理能力,可应用于数据中台建设、实时数据仓库建设等场景。 混合云管理平台基于 Kubernetes(K8s)架构的容器云服务,提供 K8s 的可视化管理、常见公有云的资源管理和编排,以及立体式的智能监控告警,能够将应用部署到不同的云平台,实现混合云架构。 # Erda 不是什么 Erda 是基于 K8s 的应用开发管理平台,而并非一个 K8s 发行版本,也不是一个 K8s 管理平台。 # Erda 为什么有三大平台 企业数字化建设的三大核心场景分别是 “云”、“业务”和“...
docker+Portainer容器化部署nacos+rouyi_cloud+SkyWalking+sentinelRuoYi-Cloud是一款基于Spring Boot、Spring Cloud & Alibaba、Vue、Element的前后端分离微服务极速后台开发框架。RuoYi 官网地址:http://ruoyi.vip(opens new window)RuoYi 在线文档:http://doc.ruoyi.vip(opens new window)RuoYi 源码下载:https://gitee.com/y_project/RuoYi-CloudRuoYi-Cloud 是一个 Java EE 企业级快速开发平台,基于经典技术组合(Spring Boot、Spring Cloud & Alibaba、Vue、Element),内置模块如:部门管理、角色用户、菜单及按钮授权、数据权限、系统参数、日志管理、代码生成等。在线定时任务配置;支持集群,支持多数据源。系统模块~~~com.ruoyi ├── ruoyi-ui // 前端框架 [80]├── ruoyi-gateway // 网关模块 [8080]├── ruoyi-auth // 认证中心 [9200]├── ruoyi-api // 接口模块│ └── ruoyi-api-system &...
分布式文件MinIO,FastDFS安装配置 # 基本介绍 什么是分布式文件 分布式文件系统是指文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连。 为什么要使用分布式文件 分布式文件系统是面对互联网的需求而产生,互联网时代对海量数据如何存储?靠简单的增加硬盘的个数已经满足不了我们的要求,因为硬盘传输速度有限但是数据在急剧增长,另外我们还要要做好数据备份、数据安全等。 ruoyi-file目前支持三种存储方式,本地存储、MinIO存储、FastDfs存储,可以在ruoyi-file-dev.yml配置。 # 本地存储 1、文件配置 # 本地文件上传
file:
# 访问地址
domain: http://127.0.0.1:9300
# 本地存放的路径地址
path: D:/ruoyi/uploadPath
# 映射地址
prefix: /statics
2、继承WebMvcConfigurer,重写addResourceHandlers,在registry里面配置访问路径和映射到的服务器本地路径。 package com.ruoyi.file.config;
import java.io.File;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Configuration;
import org.springframework.web.servlet.confi...
微服务分布式应用的链路追踪# 基本介绍什么是链路追踪随着微服务分布式系统变得日趋复杂,越来越多的组件开始走向分布式化,如分布式服务、分布式数据库、分布式缓存等,使得后台服务构成了一种复杂的分布式网络。在服务能力提升的同时,复杂的网络结构也使问题定位更加困难。在一个请求在经过诸多服务过程中,出现了某一个调用失败的情况,查询具体的异常由哪一个服务引起的就变得十分抓狂,问题定位和处理效率是也会非常低。分布式链路追踪就是将一次分布式请求还原成调用链路,将一次分布式请求的调用情况集中展示,比如各个服务节点上的耗时、请求具体到达哪台机器上、每个服务节点的请求状态等等。为什么要使用链路追踪链路追踪为分布式应用的开发者提供了完整的调用链路还原、调用请求量统计、链路拓扑、应用依赖分析等工具,可以帮助开发者快速分析和诊断分布式应用架构下的性能瓶颈,提高微服务时代下的开发诊断效率。skywalking 链路追踪SkyWalking是一个可观测性分析平台(Observability Analysis Platform 简称OAP)和应用性能管理系统(Application Performance Management 简称 APM)。提供分布式链路追踪,服务网格(Service Mesh)遥测分析,度量(Metric)聚...
总共58页,当前第8页 | 页数: - 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
最新评论