记录关于Devops运维,虚拟化容器云计算,数据库,网络安全等各方面问题。
宝塔面板使用nginx实现负载均衡。使用以下配置文件内容,就可以不用购买宝塔面板中的商业软件了。环境: 1,域名: www.9999.com 2,,前端nginx作https负载均衡。 3,后台两个realserver网站配置http。/www/server/panel/vhost/nginx 目录下创建两个相关文件。第一个配置文件,upstream_9999.conf[centos7]#cat upstream_9999.confupstream 999 { ip_hash; server 172.16.32.15:80 max_fails=2 fail_timeout=10s weight=1; server 172.16.32.4:80 max_fails=2 fail_timeout=10s weight=1; #sticky name=bt_route expires=12h httponly;}第一个配置文件,www.999.conf :[centos7]#cat www.999.confserver{ listen 80; listen 443 ssl http2; server_name www.999.com; index index.php index.html index.htm default.php default.htm default.html; root /www/wwwroot/www.999.com; #SSL-START SSL相关配置,请勿删除或修改下一行带注释的404规则 #error_page 404/404.html; ...
Kubesphere流水线工作流程与Jenkinsfile完整代码https://gitee.com/leifengyang/yygh-parent1、每个项目,都有流水线文件2、每次修改完项目,手动点击运行3、希望,每次修改完项目,代码推送,流水线能自动运行写代码并提交------> gitee ---------> 给指定的地方发请求(webhook)------> kubesphere平台感知到 -----> 自动启动流水线继续运行需要配置:1, gitee-id 码云ID与密码。2,aliyun-docker-registry #容器仓库地址的ID与密码3,$REGISTRY #指定容器仓库地址4,$DOCKERHUB_NAMESPACE #仓库的ns名称。5,$DOCKER_PWD_VAR 仓库ID的密码变量名6,$DOCKER_USER_VAR 仓库ID的变量名7,$KUBECONFIG_CREDENTIAL_ID kubeconfigIDpipeline { agent { node { label 'maven' } } stages { stage('拉取代码') { agent none steps { &nbs...
npm报错:unable to verify the first certificatenpm install总是报错:unable to verify the first certificate(无法验证第一证书),查了一下发现As of February 27, 2017, npm no longer supports its self-signed certificates.
2017年2月27日,npm不再支持自签名证书。因为npm install走的是https协议,需要通过数字证书来保证的解决方法1:取消ssl验证:npm config set strict-ssl false如果还没成功,则将npm源更换为国内镜像:npm config set registry http://registry.cnpmjs.org/
npm config set registry http://registry.npm.taobao.org/
taobaoNPM镜像官网:https://npm.taobao.org/解决方法2:升级:npm install npm -g --ca=null或者 npm config set ca=""推荐使用方法1npm与git 命令报错:SSL 或unable to verify the first certificate
Kubernetes/k8s v1.20上安装KubeSphere-devops平台安装步骤选择4核8G(master)、8核16G(node1)、8核16G(node2) 三台机器,按量付费进行实验,CentOS7.9安装Docker安装Kubernetes安装KubeSphere前置环境安装KubeSphere 1、安装Dockersudo yum remove docker*
sudo yum install -y yum-utils
#配置docker的yum地址
sudo yum-config-manager \
--add-repo \
http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
#安装指定版本
sudo yum install -y docker-ce-20.10.7 docker-ce-cli-20.10.7 containerd.io-1.4.6
# 启动&开机启动docker
systemctl enable docker --now
# docker加速配置
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
"registry-mirrors": ["https://82m9ar63.mirror.aliyuncs.com"],
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {
"max-size": "100m"
},
"storage-driver": "overlay2"
...
k8s v1.20 集群安装metrics-server监控集群指标[root@centos34 opt]# kubectl top pods -ANAMESPACE NAME CPU(cores) MEMORY(bytes)default nfs-client-provisioner-99f54bcdb-qn97h 2m 11Mikube-system calico-kube-controllers-85c867d48-n5wtg 3m 39Mikube-system calico-node-9gjbg 53m 198Mikube-system calico-node-j8ctn 54m 170Mikube-system calico-node-pm8bt ...
K8S dashboard UI登陆时间超时设置 默认的Token失效时间是900秒,也就是15分钟,这意味着你每隔15分钟就要认证一次。Expiration time (in seconds) of tokens generated by dashboard. Default: 15 min. DefaultTokenTTL = 900详细源码可以参考:Expiration time ,显然我们可以设置更长的时间来满足需求。 操作 参数名 默认值 说明 token-ttl 15 minutes Expiration time (in seconds) of JWE tokens generated by dashboard. Default: 15 min. 0 - never expires. Dashboard的Token失效时间可以通过 token-ttl 参数来设置,修改创建Dashboard的yaml文件,并重新创建即可。 ports: - containerPort: 8443 protocol: TCP args: - --auto-generate-certificates - --token-ttl=43200 除了删除后重新创建,也可以直接修改原有Dashboard的配置,使用kubectl或者Dashboard可视化页面操作。 Dashboard 添加token-ttl参数后,更新即可。 kubectl kubectl edit deployment kubernetes-dashboard -n kube-system 同理,添加相同参数,更新即可。 dashboard参数 https://github.com/kubernetes/dashboard/wiki/Dashboard-argum...
Centos7/RHEL7安装docker20.10.7+K8S-v1.20.9遇到的坑1,使用kubeadmin init时,提示报错,经查日志有以下报错,Nov 15 11:15:44 k8smaster kubelet[99728]: E1115 11:15:44.924812 99728 pod_workers.go:191] Error syncing pod 3727d6783c46108c76e5b899df77ce70 ("kube-apiserver-k8smaster_kube-system(3727d6783c46108c76e5b899df77ce70)"), skipping: failed to "StartContainer" for "kube-apiserver" with CrashLoopBackOff: "back-off 5m0s restarting failed container=kube-apiserver pod=kube-apiserver-k8smaster_kube-system(3727d6783c46108c76e5b899df77ce70)"Nov 15 11:15:45 k8smaster kubelet[99728]: E1115 11:15:45.583614 99728 kubelet.go:2263] node "k8smaster" not foundNov 15 11:15:45 k8smaster kubelet[99728]: W1115 11:15:45.642347 99728 pod_container_deletor.go:79] Container "f4d9630c0fc474157914b33e33fdf39641030fb0bd7e0750cce7a3108b9811b6" not found in pod's containers经检查,docker中的pod已经添加,但是pod没法正常启动。于是又自行加载了一个容器,经测试,...
k8s节点中入集群报错:couldn't validate the identity of the API Server1, node节点再加入k8s集群时报错。[root@centos38 ~]# kubeadm join centos34:6443 --token brilgr.4gtm8kwcgc2kssdl --discovery-token-ca-cert-hash sha256:6f8c864b3771bda0272e95c7192d6e70ab36a0d97061f902[preflight] Running pre-flight checks [WARNING SystemVerification]: this Docker version is not on the list of validated versions: 20.10.7. Latest validated version: 19.03error execution phase preflight: couldn't validate the identity of the API Server: expected a 32 byte SHA-256 hash, found 24 bytesTo see the stack trace of this error execute with --v=5 or higher经查资料,一说是,可以再命令 kubeadmin join 后面加参数 --v=5或是--v=6,或是 查看令牌情况,是否过期,但是显示不可能,master节点才建好不到2个小时。 2,实在没办法,就查看token后,删除再重建一个。[root@centos34 ~]# kubeadm token listTOKEN  ...
Flume的安装及使用 目录 Flume的安装及使用 Flume的安装 1、上传至虚拟机,并解压 2、重命名目录,并配置环境变量 3、查看flume版本 4、测试flume 5、flume的使用 Flume的安装 1、上传至虚拟机,并解压 tar -zxvf apache-flume-1.9.0-bin.tar.gz -C /usr/local/soft/
在环境变量中增加如下命令,可以使用 soft 快速切换到 /usr/local/soft alias soft='cd /usr/local/soft/' 2、重命名目录,并配置环境变量 mv apache-flume-1.9.0-bin/ flume-1.9.0
vim /etc/profile
source /etc/profile
3、查看flume版本 flume-ng version
[root@master soft]# flume-ng version
Flume 1.9.0
Source code repository: https://git-wip-us.apache.org/repos/asf/flume.git
Revision: d4fcab4f501d41597bc616921329a4339f73585e
Compiled by fszabo on Mon Dec 17 20:45:25 CET 2018
From source with checksum 35db629a3bda49d23e9b3690c80737f9
[root@master soft]#
4、测试flume 监控一个目录,将数据打印出来 配置文件 # 首先先给agent起一个名字 叫a1
# 分别给source channel sink取名字
a1....
CentOS 7 GlusterFS 环境说明: 3台机器安装 GlusterFS 组成一个集群。 使用 docker volume plugin GlusterFS 服务器: 10.6.0.140 10.6.0.192 10.6.0.196 配置 hosts 10.6.0.140 swarm-manager 10.6.0.192 swarm-node-1 10.6.0.196 swarm-node-2 client: 10.6.0.94 node-94 安装: CentOS 安装 glusterfs 非常的简单 在三个节点都安装glusterfs yum install centos-release-gluster yum install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma 配置 GlusterFS 集群: 启动 glusterFS systemctl start glusterd.service systemctl enable glusterd.service 在 swarm-manager 节点上配置,将 节点 加入到 集群中。 [root@swarm-manager ~]#gluster peer probe swarm-managerpeer probe: success. Probe on localhost not needed [root@swarm-manager ~]#gluster peer probe swarm-node-1peer probe: success. [root@swarm-manager ~]#gluster peer probe swarm-node-2peer probe: success. 查看集群状态: [root@swarm-manager ~]#gluster peer statusNumber of Peers: 2 Hostname: swarm-node-1Uuid: 41573e8b-eb00-4802-8...
最新评论