本站用于记录日常工作内容,虚拟化云计算,系统运维,数据库DBA,网络与安全。
Citrix XenServer网络性能优化最近把部分Windows Server 2003迁移至XenServer,但是发现一个很严重的问题,就是网络性能十分低下,在网上查了一下资料,终于让网络性能恢复如初。XenServer需要关闭网卡的CheckSum功能:脚本(xen_net.sh)内容如下:echo Setting checksum off on VIFsVIFLIST=`xe vif-list | grep "uuid ( RO) " | awk '{print $5}'`for VIF in $VIFLISTdoecho Setting ethtool-tx=off and ethtool-rx=off on $VIFxe vif-param-set uuid=$VIF other-config:ethtool-tx="off"xe vif-param-set uuid=$VIF other-config:ethtool-rx="off"doneecho Setting checksum off on PIFsPIFLIST=`xe pif-list | grep "uuid ( RO) " | awk '{print $5}'`for PIF in $PIFLISTdoecho Setting ethtool-tx=off and ethtool-rx=off on $PIFxe pif-param-set uuid=$PIF other-config:ethtool-tx="off"xe pif-param-set uuid=$PIF other-config:ethtool-rx="off"donewindows 2003 VM需修改注册表信息:将以下信息导入注册表:Windows Registry Editor Version 5.00[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Serv...
XenServer中xentop查看服务器性能在XenServer中,查看服务器性能,我们可能大多是通过XenServer的管理工具XenCenter来进行管理和监控。为了查看XenServer的即时性能,可能大家需要等待一定的时间,让performance标签中的表格到达节点(一般3分钟)的时候开始,过一段时间,等待图标刷新后来查看性能数据,但是不是很明确。而如何即时的查看XenServer的性能呢?我们可以使用xentop工具,类似于linux的top命令,但是xentop可以用来查看虚机和domain0的性能:查看的内容还是比较详细的,包括CPU,MEM,NETWORK,VBD(虚拟磁盘)性能数据但是数据默认的刷新时间比较长,我们可以通过按D(Delay)键来修改刷新时间,输入1(秒)回车,可以看到数据刷新更快了,在上图中按D,进入下图的设置。
调整XenServer中VM的内存上下限在XenServer中,我们可以发现,创建虚机的时候,VM的最大最小值都有规定值,内存无法设置太低,也没法设置的更高,比如选择Windows Server 2003 32bit模版来安装的时候,我们会发现,2003 R2 32bit的模版最多只能设置4GB内存,最少不能少于256M内存。超过范围,XenCenter工具会帮您自动调整为范围内的最接近值。XenServer为了保证通常情况下的系统运行,为每个类型的系统设置了合适的内存范围,如下表:Operating SystemMinimum RAMMaximum RAMDisk spaceWindows 7 32-bit1GB4GBMinimum 16GB, 40GB or more recommendedWindows 7 64-bit2GB32GBMinimum 20GBWindows Server 2008 R2512MB32GBMinimum 32GBWindows Server 2008 32-bit/64-bit512MB32GBMinimum 10GB, 40GB or more recommendedWindows Vista 32-bit1GB4GB16GBWindows Server 2003256MB32GB2GBWindows XP SP2/3256MB32GB1.5GBWindows 2000 SP4256MB32GB2GBCentOS 4.5, 4.6, 4.7256MB16GB800MBCentOS 5.0, 5.1, 5.2, 5.3, 5.4512MB16GB800MBRed Hat Enterprise Linux 4.5, 4.6, 4.7, 4.8256MB16GB800MBRed Hat Enterprise Linux 5.0, 5.1, 5.2, 5.3, 5.4512MB16GB800MBSUSE Linux Ent...
XenServer中VM的caching行为设置XenServer开启了Intellicache功能支持以后,我们可以针对每个VM的VDI开启缓存支持。根据以前的文章介绍,我们知道VM的VDI有两种模式,也就是Shared Desktop Mode和Private Desktop Mode,分别规定了对VDI的修改是否会持久化的行为。而VM的cache,在两种不同VDI模式的情况下,有些类似的区别,对一些XenServer的高级功能有影响,所以这里就提到以下。默认情况下,启用了Thin Provisioning(也就是local SR为EXT3文件系统),那么VDI的allow-caching参数(标志,Flag)设置为true,则标示启用了本地智能缓存;设置为false,则标示禁用缓存功能。而VM的工作模式(on-boot设置)以及缓存行为设置(allow-caching)会影响到VM的迁移(XenMotion,VM Migration)。如果on-boot=reset,allow-caching=true,那么缓存数据只会写入到本地的缓存SR,不会写入到共享存储,这会大大降低共享存储的压力,然后这种情形下,VM不能在主机之间迁移。很容易理解,因为缓存管理的原因,导致虚机无法迁移。如果on-boot=persist,allow-caching=true,那么由于最终对VDI的修改会持久化到硬盘或者VBD,PBD上,那么,对VDI的写入,不仅会写入到缓存,同时也会写入到共享存...
修改XenServer中SR的大小在XenServer中,前期规划划分的LUN的大小可能会由于项目的其他因素发生项目变化,此时可能需要resize SR。在存储中重置了LUN 的大小以后,在XenServer中,SR的容量大小不会马上显现,需要对SR进行一些简单的处理。基于iSCSI的SR,需要unplug XenServer主机挂载到该target上的所有LUN,然后replugged即可,此时,iSCSI将重置到存储中该target的连接,而LUN size的改变也会被发现。基于HBA的SR,这种类型的SR,需要重启xenserver主机来识别LUN的尺寸的改变。主要:在老版本中,可能需要显示的使用命令来修改physical volume group的大小,而新版本已经作为PBD plug操作的一部分,所以不要再使用命令来重置大小。
调整Domain0使用的vCPU数量在XenServer5.6 FP1以后,Dom0为一个多虚拟(逻辑)CPU的控制域,默认情况下会有4个vCPU分配给Dom0,在数量小于4的情况下,Dom0使用的vCPU数量由实际物理CPU核心决定,例如:下图双核CPU中,Dom0使用了两个vCPU。在某些情况下,我们可能需要手工调整Dom0的vCPU数量,默认情况下,在系统启动的时候,8个vcpu分配给dom0,而在unplug-vcpus服务启动以后,会减少到4个。由于,默认情况下,在xenserver中VM的最大vcpu为8个,所以能给Dom0分配的最大vCPU数量也为8个。为了提高性能或者提供稳定性,我们可能需要增加或者减少Dom0的vCPU数量,修改Dom0使用的vCPU数量如下:修改/etc/sysconfig/unplug-vcpus文件调整unplug-vcpus文件中:NR_DOMAIN0_VCPUS=4的数量,例如调整为1,则修改为NR_DOMAIN0_VCPUS=1然后保存运行unplug-vcpus服务,输入命令:service unplug-vcpus start如果是减少Dom0的vcpu数量,那么只要执行以上命令即可,不需要重启,如果是增加Dom0的vCPU数量,那么需要重启XenServer主机。
XenServer中Fast Copy与Full Copy的区别详细跟踪了一下LVM-Based VDI与File-Based VDI的复制与链接过程,我们可以发现,Fast Copy与Full Copy有很大的区别,不同的形式对虚机VBD的性能具有一定的影响。关于VM的VDI的格式,请参考另外一篇文章:XenServer中VM的存储格式对空间以及性能的影响我们可以知道快照是基于链接形式管理的,而copy是完整的copy,里面没有详细区分Fast Copy和full copy的区别,VM在copy的情况下有两种形式,一是Fast copy,一种为Full copy 。我们可以简单来看下VDI的复制过程。在最开始Original-VM的VDI:在Full Copy的情况下,XenServer会直接完整复制Original-VM的VDI,并生成UUID,附加到VM在第一次Fast Copy的情况下,XenServer首先会把Original VM的VDI(UUID=1……)的重命名为Base Copy(UUID=2……),并生成新的VDI文件,作为Original VM的VDI(UUID=1……),也就是说,原始 VDI会转换成基本节点,原始VM也会链接到Base Copy,此时完成了链接的创建,而Fast-Copy虚机,会创建新的VDI(UUID=3……),并链接到Base Copy,也就是基本节点。此时,如果对VDI(UUID=3……)进行Full Copy,也就是对虚机进行完整复制的时候,XenServer会根据Fast ...
xenserver中手工给vm添加硬盘及修改cpu、内存xenserver中的GUI操作功能不全,但命令行下的操作功能齐全而且强大,简单介绍两个一、给vm添加硬盘1.获得sr的uuid,新建一个vdi xe vdi-create sr-uuid=181b140b-2ce7-2a47-eb06-69f10ea696cc name-label=be11 type=user virtual-size=100GiB(单位为MiB,KiB,GiB)返回vdi uuid:fb6cb3a9-98dd-4ff7-b49e-08ff34c806712.新建一个vbdxe vbd-create vdi-uuid=fb6cb3a9-98dd-4ff7-b49e-08ff34c80671 vm-uuid=9a1772d5-8eb0-9e48-460b-e7159c33e0ae(需要添加硬盘的vm uuid) device=1(设备号为vm里硬盘数目的顺延,从0开始,比如原来有2个硬盘,则device=2,原来有一个,则device=1) type=Disk(如果是添加光驱,则为CD) mode=RW返回vbd uuid31640a57-33e1-699f-22e1-7162770184b83.attach新建的vbdxe vbd-plug uuid=31640a57-33e1-699f-22e1-7162770184b8ok,在vm中可以使用新硬盘了 二、修改vm的cpu数量1、确认目前cpu数量   xe vm-param-list uuid=546f896a-ebe6-8071-2c31-b9214dc1d1b5 |grep VCPUs-返回                     VCPUs-params ...
XenServer为VM指定使用特定物理CPU首先,我们先来看看XenServer中Socket、Core、以及超线程后的核心之间在XenServer中CPU的排序关系,请参考下表:CPU排序(以2路4核具有超线程功能CPU示范)Socket1Socket2Core1Core2Core3Core4Core1Core2Core3Core4HT1HT2HT1HT2HT1HT2HT1HT2HT1HT2HT1HT2HT1HT2HT1HT2#0#1#2#3#4#5#6#7#8#9#10#11#12#13#14#15上表反应了XenServer中CPU的排序规则。1、指定特定的VM使用指定的物理CPU可以使用命令:[root@xenserver ~]# xe vm-param-set uuid=<VM UUID> VCPUs-params:mask=1,3,7该命令用于设置特定UUID的VM使用物理CPU排序中的第1,3,7个CPU2、设置VM中CPU的权重[root@xenserver ~]# xe vm-param-set uuid=<VM UUID> VCPUs-params:weight=512该命令设置vCPU的权重为512,默认dom0权重为256,权重决定VM在CPU时间片中所占比例,权重范围从0到655353、设置VM最大CPU使用率[root@xenserver ~]# xe vm-param-set uuid=<VM UUID> VCPUs-params:cap=80该命令用户设置VM最大可以使用的CPU为单个CPU的%80,设置为100,则为1个物理CPU的,设置为80,则只能使用一个物理CPU的80%性能,设置为400,则表示最大可以使用4个物理CPU。默认为0...
XenServer - 新增儲存裝置 - NFSNFS(Network File System) 在 Linux/Unix/BSD 的世界中就如同是 Windows 的網路芳鄰一樣. 系統是透過 Linux/Unix/BSD 去分享資料,而 XenServer 可以去存取遠端的 NFS 當作他的 Storage repositor. 一般的 Linux 套件都將 NFS 當作標準配備.大多都是處於啟動的狀態只需稍加修改設定當分享目錄其可完成.  在啟動 NFS 所需的 2 個services I.Portmap 因為 nfs 用到 RPC 的功能,所以這個 daemon 必須啟動II.nfs 由下面 3 個 daemon組成 1.mountd 2.nfsd 3.rquotadNFS - Linux , Unix , BSD..編輯 "/etc/exports" 並將要分享的目錄(/share)寫入檔案中[root@benjr ~]# vi /etc/exports /share 192.8.1.126(rw,sync,no_root_squash)1. /share : 為欲分享的目錄,這個目錄必須已經存在(# mkdir) 2. 192.8.1.126 : 為可存取此分享目錄的 IP 區段,因為我只設定只有一台 XenServer 可以存取這個 NFS 所分享的目錄所以設定為一個 IP,如果你是要同時分享給多個使用者使用時,可以寫成 192.8.1.0/255.255.255.0 (192.168.0.*) 只要是同網段的 IP 皆可以使用,或者為網域名稱*.example.com,以上的設定都可以配合?,*來使用3. rw :分享...
    总共58页,当前第54页 | 页数:
  1. 44
  2. 45
  3. 46
  4. 47
  5. 48
  6. 49
  7. 50
  8. 51
  9. 52
  10. 53
  11. 54
  12. 55
  13. 56
  14. 57
  15. 58