本站用于记录日常工作内容,虚拟化云计算,系统运维,数据库DBA,网络与安全。
一,MySQL8 NDBCLuster 架构MySQL 8 NDB Cluster 是一个高可用性、可扩展性和实时性的分布式数据库系统,它基于 MySQL Server 和 NDB 存储引擎。NDB Cluster 采用共享磁盘存储和并行查询处理,可以在多个服务器节点上水平扩展数据和负载,提供高性能和高可用性。以下是 MySQL 8 NDB Cluster 的架构组成部分:1.数据节点(Data Nodes):数据节点是 NDB Cluster 的核心组件,负责存储和处理数据。数据节点使用 NDB 存储引擎,它是一个内存和磁盘混合存储引擎,将数据存储在内存中以提供快速的读写操作。每个数据节点都有自己的数据和索引,并参与并行查询处理。数据节点通过多播或 TCP/IP 网络互相通信,以保持数据的一致性和可用性。2.管理节点(Management Nodes):管理节点是负责整个集群的管理、配置和监控的组件。它们维护集群的拓扑结构、元数据信息和集群配置。管理节点提供了一个控制台界面(ndb_mgm)和管理 API,允许管理员进行集群管理操作,如启动和停止集群、添加或删除数据节点等。3.SQL 节点(SQL Nodes):SQL 节点是连接客户端和数据节点的桥梁,它们提供了标准的 MySQL Server 接口和 SQL 查询支持。SQL 节点收到客户端的查询请求后,将查询转发给相应的数...
 售前工程师关于客户OA系统上云详细解决方案PPT以下是AI工具生成内容:以下是关于客户OA系统上云详细解决方案的PPT,希望对您有所帮助:第一页:客户OA系统上云详细解决方案PPT第二页:目录背景优势需求分析解决方案迁移过程解决方案示例总结第三页:背景随着云计算技术的逐渐成熟,越来越多的企业选择将其OA系统迁移到云端。这不仅可以降低成本,还可以提高可用性、安全性和灵活性。本文将为您介绍关于客户OA系统上云的详细解决方案。第四页:优势1.成本节约:与传统的本地服务器相比,使用云计算服务可以大大降低成本。2.灵活性:云计算服务可以根据业务需求轻松扩展或缩小服务器资源。3.高可用性:云计算服务具有更强的容错能力和数据备份,从而保证业务的高可用性。4.安全性:云计算服务可以提供更强大的安全防护能力,并且可以快速响应安全漏洞,更加保障客户的数据安全。第五页:需求分析在上云之前需要进行需求分析,以确定客户OA系统的云计算需求。下面是一些需要考虑的要素:1.可伸缩性:客户OA系统需要和平台一样可以实现可伸缩性。2.性能:客户OA系统需要在云计算上具有足够的性能,以正常运行业务。3.可用性:云计算需要确保客户OA系统的高可用性。4.安全性...
通过靶场平台演练增强安全攻防意识点击打开链接下载相关课件
通过 docker-compose 快速部署 Hadoop 集群详细教程一、概述 docker-compose 项目是docker官方的开源项目, 负责实现对docker容器集群的快速编排,来轻松高效的管理容器,定义运行多个容器。 通过docker-compose来部署应用是非常简单和快捷的。但是因为docker-compose是管理单机的,所以一般通过docker-compose部署的应用用于测试、poc环境以及学习等非生产环境场景。生产环境如果需要使用容器化部署,建议还是使用K8s。 Hadoop集群部署还是稍微比较麻烦点的,针对小伙伴能够快速使用Hadoop集群,这里就使用docker-compose来部署Hadoop集群。 关于docker-compose介绍可以参考我以下几篇文章: Docker三剑客之Compose docker-compose 进阶篇 如果需要通过k8s来部署Hadoop环境,可以参考我之前的以下几篇文章: 【云原生】Hadoop on k8s 环境部署 【云原生】Hadoop HA on k8s 环境部署 Hadoop NameNode HA 架构: Hadoop YARN HA 架构: 二、安装 docker 和 docker-compose 1)安装 docker # 安装yum-config-manager配置工具 yum -y install yum-utils # 建议使用阿里云yum源:(推荐) #yum-config-manager --add-repo https://download.docker.com/l...
Centos7.9安装containerd容器与cni网络插件一,Containerd 的技术方向和目标简洁的基于 gRPC 的 API 和 client library完整的 OCI 支持(runtime 和 image spec)同时具备稳定性和高性能的定义良好的容器核心功能一个解耦的系统(让 image、filesystem、runtime 解耦合),实现插件式的扩展和重用   为什么需要独立的 containerd:以往隶属于docker项目中,现如今从整体 docker 引擎中分离出的项目(开源项目的思路)可以被 Kubernets CRI 等项目使用(通用化)为广泛的行业合作打下基础(就像 runC 一样)二,安装步骤1,升级内核[root@os-240 ~]#  rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elrepo.noarch.rpm[root@os-240 ~]#   yum --disablerepo="*" --enablerepo="elrepo-kernel" list available#建议迁移lt长期支持内核[root@os-240 ~]#   yum --enablerepo='elrepo-kernel' install kernel-lt kernel-lt-devel[root@os-240 ~]#  grub2-set-default 0[root@os-240 ~]#  reboot不升级内核,启动containerd服务或是拉取镜像会报以下错误:Mar 24 11:05:03 os-240 containerd: time="2023-03-24T11...
华为云asm服务网格治理部署bookinfo时镜像拉取失败问题1,在创建 CCE后,再加4个节点,然后再创建asm企业版后,再将cce集群加入到asm服务中,2,在创建bookinfo示例后,提示拉取swr镜像失败,经检查是cce部署bookinfo 实例时,没有将 镜像访问凭证 加入到YAML中,导致无法正常进行。解决方法:部署asm的bookinfo示例后,再到cce集群中,选择对应的    工作负载 ,点 升级 ,然后将默认凭证 加入,保存后就会正常使用了。
一键快速部署Kubernetes高可用集群三个主节点、三个Node节点、两个用于负载平衡的节点以及一个虚拟IP地址。此示例中的虚拟IP地址也称为浮动IP地址。也就是说,即使节点发生故障,也可以在节点之间交换IP地址,实现故障切换,实现高可用性。由于资源限制服务器进行了复用,如下:1初始化操作所有机器操作如下:修改主机名hostnamectl set-hostname k8s-master01hostnamectl set-hostname k8s-master02hostnamectl set-hostname k8s-master03hostnamectl set-hostname k8s-node01hostnamectl set-hostname k8s-node02[root@k8s-master01 ~]# MasterNodes='k8s-master01 k8s-master02 k8s-master03'[root@k8s-master01 ~]# WorkNodes='k8s-node01 k8s-node02'[root@k8s-master01 ~]# for NODE in $MasterNodes; do ssh-copy-id $NODE ;done[root@k8s-master01 ~]# for NODE in $WorkNodes; do ssh-copy-id $NODE ;done执行初始化脚本[root@k8s-master01 ~]# vim init.sh#!/bin/shecho "192.168.102.71 k8s-master01" >> /etc/hostsecho "192.168.102.72 k8s-master02" >> /etc/hostsecho "192.168.102.73 k8s-master03" >> /et...
K8s运维-集群升级 -- kubeadm v1.20 安装方式升级kubeadm安装方式升级升级k8s集群必须 先升级kubeadm版本到目的k8s版本,也就是说kubeadm是k8s升级的准升证。1.1 升级准备在k8s的所有master节点进行组件升级,将管理端服务kube-controller-manager、kube-apiserver、kube-scheduler、kube-proxy进行版本升级。1.1.1 验证当前k8s master版本[root@k8s-master01 ~]# kubeadm versionkubeadm version: &version.Info{Major:"1", Minor:"20", GitVersion:"v1.20.14", GitCommit:"57a3aa3f13699cf3db9c52d228c18db94fa81876", GitTreeState:"clean", BuildDate:"2021-12-15T14:51:22Z",GoVersion:"go1.15.15", Compiler:"gc", Platform:"linux/amd64"}1.1.2 验证当前k8s node版本[root@k8s-master01 ~]# kubectl get nodesNAME STATUS ROLES AGE VERSIONk8s-master01.example.local Ready control-plane,master 20h v1.20.14k8s-master02.example.local Ready control-plane,master 20h v1.20.14k8s-master0...
docker 安装 ETCD v3.5.5集群一、环境物理机 一台 部署Centos7系统,再配置Docker软件,需要安装三个 ETCD v3.5容器实例。二、安装具体情况.1,下载etc3.5容器镜像。 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.5.5-02, 镜像打个新标签。docker image tag registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.5.5-0 etcd:3.5.53,创建一个容器网络docker network create --subnet 192.167.0.0/24 etcdnet三、创建etcd容器。1,etcd10容器,集群token etcd-cluster-10 。docker run -dt -p 3379:2379 -p 3380:2380 --restart=always --net etcdnet --ip 192.167.0.10 --name etcd10 etcd:3.5.5 \ /usr/local/bin/etcd  --name etcd10 --enable-v2 \  --initial-advertise-peer-urls http://192.167.0.10:2380 \  --listen-peer-urls http://0.0.0.0:2380 \  --listen-client-urls http://0.0.0.0:2379 \  --advertise-client-urls http://192.167.0.10:2379 \  --initial-cluster-token etcd-cluster-10 \  --initial-cluster etcd10=http://192.167.0.10:2380,etcd11=http://192...
Run etcd clusters inside containersRunning etcd with rkt and Docker using static bootstrappingThe following guide shows how to run etcd with rkt and Docker using the static bootstrap process.rktRunning a single node etcdThe following rkt run command will expose the etcd client API on port 2379 and expose the peer API on port 2380.Use the host IP address when configuring etcd.export NODE1=192.168.1.21 Trust the CoreOS App Signing Key.sudo rkt trust --prefix quay.io/coreos/etcd # gpg key fingerprint is: 18AD 5014 C99E F7E3 BA5F 6CE9 50BD D3E0 FC8A 365E Run the v3.2 version of etcd or specify another release version.sudo rkt run --net=default:IP=${NODE1} quay.io/coreos/etcd:v3.2 -- -name=node1 -advertise-client-urls=http://${NODE1}:2379 -initial-advertise-peer-urls=http://${NODE1}:2380 -listen-client-urls=http://0.0.0.0:2379 -listen-peer-urls=http://${NODE1}:2380 -initial-cluster=node1=http://${NODE1}:2380 List the cluster member.etcdctl --endpoints=http://192.16...
    总共58页,当前第2页 | 页数:
  1. 1
  2. 2
  3. 3
  4. 4
  5. 5
  6. 6
  7. 7
  8. 8
  9. 9
  10. 10
  11. 11
  12. 12