本站用于记录日常工作内容,虚拟化云计算,系统运维,数据库DBA,网络与安全。
2018年5月14日,NVIDIA发布NVIDIA virtual GPU software 6.1 (390.57/391.58),正式增加了对RedHat KVM虚拟化上NVIDIA virtual GPU支持。软硬件支持情况详细支持见:https://docs.nvidia.com/grid/6.0/product-support-matrix/index.htmlHost中需要安装vGPU Manager RPMNVIDIA-vGPU-rhel-7.5-390.57.x86_64.rpmNVIDIA vGPU ArchitectureVirtual GPU 类型选择Q-series virtual GPU types are targeted at designers and power users.B-series virtual GPU types are targeted at power users.A-series virtual GPU types are targeted at virtual applications users.注:M6和M60支持在图形模式和计算模式间切换https://docs.nvidia.com/grid/6.0/
CentOS 7 利用qemu模拟ARM vexpress A9开发板本文仅仅记录Qemu装载Linux kernel和busybox根文件系统的过程。后续将会深入了解仿真的其他内容。先上成果图:1. 安装QEMUQEMU是一套由Fabrice Bellard所编写的以GPL许可证分发源码的模拟处理器,在GNU/Linux平台上使用广泛。Bochs,PearPC等与其类似,但不具备其许多特性,比如高速度及跨平台的特性,通过KQMEU这个开源的加速器,QEMU能模拟至接近真实电脑的速度。之前已有记录CentOS 7编译安装qemu的方法:http://www.micoder.cc/blog/2000.html我的版本是2.10.02. 编译内核解压下载的kernel文件,进入解压后的文件夹,运行下面的指令编译。生成vexpress开发板子的config文件:make CROSS_COMPILE=arm-none-linux-gnueabi- ARCH=arm vexpress_defconfig编译:make CROSS_COMPILE=arm-linux-gnueabi- ARCH=arm执行启动脚本 #! /bin/bash qemu-system-arm \ -M vexpress-a9 \ -m 512M \ -kernel /home/walt740/kernel/linux-4.13.5/arch/arm/boot/zImage \ ...
QEMU编译安装支持ARM架构QEMU是一个支持跨平台虚拟化的虚拟机,有user mode和system mode两种配置方式。其中qemu在system mode配置下模拟出整个计算机,可以在qemu之上运行一个操作系统。QEMU的system mode与常见的VMware和Virtualbox等虚拟机比较相似,但是QEMU的优势是可以跨指令集。例如,VMware和Virtualbox之类的工具通常只能在x86计算机上虚拟出一个x86计算机,而QEMU支持在x86上虚拟出一个ARM计算机。qemu在user mode配置下,可以运行跟当前平台指令集不同的平台可执行程序。例如可以用qemu在x86上运行ARM的可执行程序,但是两个平台必须是同一种操作系统,比如Linux。QEMU还支持很多其他的平台,详细列表参见这里。QEMU中有两个重要的名词host和target(guest),其中host表示qemu程序本身运行的平台,target(guest)表示qemu虚拟出的计算机平台(system mode)或支持的可执行程序的运行平台(user mode)。下面描述一下编译和使用host为x86,target(guest)为ARM的步骤1. 下载QEMU源码wget http://wiki.qemu-project.org/download/qemu-1.4.0.tar.bz22. 解压、configuretar xvf qemu-1.4.0.tar.bz2 cd qemu-1.4.0 ./configure --target-list=arm-softmmu,arm-linux-user -...
无法登录到 vCenter Server Appliance 的 root 帐户 (2099752) Symptoms 免责声明:本文为 Unable to log in to the root account of vCenter Server Appliance (2069041) 的翻译版本。尽管我们会不断努力为本文提供最佳翻译版本,但本地化的内容可能会过时。有关最新内容,请参见英文版本。登录 VMware vCenter Server Appliance 的 root 帐户失败。 vCenter Server Appliance 5.5 和 6.0 的 root 帐户被锁定。 Purpose 本文提供重置 vCenter Server Appliance的 root 密码步骤。 Cause 当本地帐户密码过期时会出现此问题。注意:在 vCenter Server Appliance 5.5 和 6.0 中,默认情况下,本地帐户密码会在 90 天后过期。 Resolution 注意:在 vCenter Server Appliance 5.5 Update 1 中,密码会在 90 天后过期。但是,在密码到期后,您可以通过控制台登录然后更新密码。要解决此问题,请通过重新启动 vCenter Server Appliance 重新激活帐户,并修改 GRUB 引导加载程序中的内核选项获取 root shell。注意:如果无法通过控制台、Secure Shell 和虚拟设备管理界面 (VAMI)(vCenter Server Appliance 5.5 和 6.0 Update 1)访问 root 帐户,则说明 root 帐户已由于...
ISCSI重启或断网假死,挂载后LV无设备或系统找不到分区解决方法。Centos6主机采用ISCSI+LVM+XFS分区来保存数据。 ISCSI存储或客户端出现断网或ISCSI程序假死,出现这种情况后,为保证数据不出意外损失。先关闭使用存储的运行程序,然后将XFS的分区取消挂载。#:  umount /data然后将ISCSI取消登陆。#:  iscsiadm -m node --targetname iqn.2016-11.dev.iscsi-target:data4 --portal 192.168.1.202 --logout然后查看分区信息,ISCSI相关信息是否还存在。#:  fdisk -l#:  lvs最后再重新挂载ISCSI。[root@cfs1 ~]# :    iscsiadm -m discovery -t sendtargets -p 192.168.11.202[root@cfs1 ~]# :    iscsiadm -m node --targetname iqn.2016-11.dev.iscsi-target:data1 --portal 192.168.11.202 --login完成后,检查ISCSI设备与LVM设备是否正常。[root@cfs1 ~]# :  fdisk -l[root@cfs1 ~]# : vgscan[root@cfs1 ~]# :  lvscan如果正常,fdisk -l 查看时会显示XFS分区信息,如下图。正常情况分区会显示,如图中: Disk /dev/mapper/vg_data-lv_data。如果没有分区,可能是lv 没有正常激活,显示为inactive 。[root@c...
Adding Realtek R8168 Driver to an ESXi 6.0 ISO As part of my home lab I installed ESXi 6.0 on one of my older i5 Desktops, the PC has a Realtek 8168 network card built into the motherboard.  I recently tried to upgrade it to ESXi 6.0 but it would not detect my network card and the installation would fail.  It looks like ESXi 6.0 does not include an inbox driver for this card. When I originally installed ESXi 5.0 on this PC there was an inbox driver that got installed automatically and I did not have to inject it into the iso.  Here are the steps how to inject the Realtek driver into the ISO image of ESXi 6.0.  This should work for the following NICs Realtek 8168/8111/8411/8118.I originally tried to inject a vib taken out of ESXi 5.1U3 offline bundle but that would fail with the below error.  It looks like 5.1 vibs are not compatible with ESXi 6.0.Operation failed:Could not obtain module order from esximage dbThe installation profile could not be valid...
安装XenServer系统盘默认大小为4G,安装前我们可以调整大小。注:此教程只适用于在全新安装XenServer的时候使用,已经安装过XenServer的无法修改系统盘(4G)大小。注:如果带数据重装,安装的时候一定要保证XenServer系统盘的大小一定要和以前一样大,否则数据就会丢失。1、进入XenServer系统安装界面。2、进入高级安装菜单界面,按F2键。3、进入命令模式进入命令行,输入“shell”,按回车键。4、编辑系统安装管理配置文件编辑“constants.py”文件,在bash-3.2#后面输入如下命令:vi /opt/xensource/installer/constants.py复制代码5、修改安装系统盘大小修改默认的系统盘大小,在92行,找到root_size=4096,修改为需要安装的系统盘大小 (备注:单位为MB)6、保存并退出“ESC”退出编辑—>输入“:wq”冒号+wq保存退出。7、退出命令模式退出命令模式,输入“exit” 。8、开始安装XenServer系统9、查看结果安装完毕后,通过以下命令查看系统分区大小:df -hal
由于没有加密狗U盘,所以只使用了普通的U盘来演示,步骤都一样的,让VPS加载到这USB设备。1、编辑XenServer启动文件:extlinux.conf备注:一定要熟悉“vi”编辑命令,不然启动文件修改错误,可能会导致服务器无法启动。vi /boot/extlinux.conf复制代码搜索:mode-0x0311,后面插入“iommu=1”(中间有个空格)保存退出编辑,重启服务器(必须操作)2、查看服务器USB接口硬件设备lspci | grep USB复制代码3、查看VPS当前PCI映射(不需要确认PCI映射,可以不用查询)备注:uuid是为VPS的UUID,可通过XenCenter查询xe vm-param-list uuid=577b4b7d-22d7-b228-9776-b6358e85c688 |grep other-config复制代码4、将USB接口映射到VPS备注:(1)uuid是为VPS的UUID,可通过XenCenter查询。(2)pci=0/0000是固定的,冒号后面的是通过:lspci | grep USB查询到的参数。(3)重复执行命令,会替换other-config中的PCI参数。xe vm-param-set other-config:pci=0/0000:00:1a.1 uuid=577b4b7d-22d7-b228-9776-b6358e85c688复制代码5、VPS需要关机,再启动可通过XenCenter对VPS进行关机,和启动或命令关机:xe vm-shutdown uuid=577b4b7d-22d7-b228-9776-b6358e85c688启动:xe vm-start uuid=577b...
请转到此网站阅读自“http://www.4008600011.com/index.php?title=LSI%E7%B3%BB%E5%88%97%E8%8A%AF%E7%89%87Raid%E5%8D%A1%E9%85%8D%E7%BD%AE%E3%80%81%E7%AE%A1%E7%90%86%E6%89%8B%E5%86%8C&oldid=2356”
 ESXi5.5主机中将普通硬盘标注为SSD 1.列出主机的storage信息命令:esxcli storage nmp device list mpx.vmhba1:C0:T1:L0   Device Display Name: Local VMware, Disk (mpx.vmhba1:C0:T1:L0)   Storage Array Type: VMW_SATP_LOCAL   Storage Array Type Device Config: SATP VMW_SATP_LOCAL does not support device configuration.   Path Selection Policy: VMW_PSP_FIXED   Path Selection Policy Device Config: {preferred=vmhba1:C0:T1:L0;current=vmhba1:C0:T1:L0}   Path Selection Policy Device Custom Config:   Working Paths: vmhba1:C0:T1:L0   Is Local SAS Device: false   Is USB: false   Is Boot USB Device: false 2. 请记下与设备关联的SATP (Storage Array Type: VMW_SATP_LOCAL) 3. 添加PSA声明规则将设备标记为SSD。命令:esxcli storage nmp satp rule add -s VMW_SATP_LOCAL --device mpx.vmhba1:C0:T1:L0 --option="enable_ssd" 4. 回收设备,重新应用规则。命令:esxcli storage core c...
    总共58页,当前第19页 | 页数:
  1. 9
  2. 10
  3. 11
  4. 12
  5. 13
  6. 14
  7. 15
  8. 16
  9. 17
  10. 18
  11. 19
  12. 20
  13. 21
  14. 22
  15. 23
  16. 24
  17. 25
  18. 26
  19. 27
  20. 28
  21. 29