本站用于记录日常工作内容,虚拟化云计算,系统运维,数据库DBA,网络与安全。
您所在的组无权查看该日志
您所在的组无权查看该日志
VMware和Citrix的GPU虚拟化方式有何不同? 导读:目前两种最为流行的企业VDI产品都是基于Nvidia的GRID技术:Citrix XenDesktop GRID vGPU、VMware vSGA和vDGA。  【TechTarget中国原创】 随着设备的性能越来越强大,用户的需求也在不断增加。现在,许多虚拟桌面用户都想要使用3D应用程序以及许多其他需要GPU支持的技术。 图形处理单元(GPU)虚拟化技术通过共享CPU计算任务的方式使得我们距离这个目标更近一步。随着用户的需求不断增加, GPU虚拟化技术也获得了快速发展。IT部门现在需要在多种支持GPU虚拟化的技术和供应商之间做出选择。但是用户的真正需求是什么?不同供应商又提供了怎样的虚拟GPU技术? 面对不断发展的多种不同选择和技术,是时候应该弄清楚这些了。 你是否需要GPU虚拟化? 你需要思考的第一件事情就是用户是否需要额外的GPU处理能力。之后,再决定选择哪种实现方式。 在虚拟桌面基础设施(VDI)中...
 想要体验虚拟机除了要求CPU要支持以及硬件存储需识别外还要对网卡有要求,正常情况下是无法加载Realtek系列的板载网卡的(有关ESX的兼容列表可以参考http://www.vmware.com/resources/compatibility/search.php?deviceCategory=io)。从列表中可以清楚知道哪些网卡可以驱动哪些是不受支持的,如下图所示。 但既然ESX的内核用的是linux,那么理论上是完全可以定制驱动程序的,只要方法正确应该就没问题(Linux下GA-945GZM-S2网卡驱动安装http://waringid.blog.51cto.com/65148/52013)。试过后才发现和linux下加载驱动的方式还真有点不同,以下是详细方法。需说明的是此次测试的主板是GA-EP45-DS5。上传驱动文件  先通过远程SSH或是ESX主机查看主板上所需驱动的网卡芯片类型。 lspci -n   可以从此看出板载网卡的ID是10ec:8168(最后一条),可以通过相关的网站来查询ID号(http://www.pcidatabase.com/search.php?vendor_search_str=10ec&vendor_search.x=0&vendor_search.y=0)如下图所示。   找到正确的驱动后可以直接去牛人很多的国外网站上下载(http://www.vm-help.com/forum/viewforum.php?f=11&sid=a2328391dae10f2ecb94a7f2fde62685)。然...
让人兴奋不已的XenServer6.5版本终于和我们见面了,全64位平台让我对此版本兴奋不已,此外一些基础架构已经升级,还有一些新的功能也被引入,当然,产品的性能提升那是必须的,让我们揭开序幕吧:1. 64位的Domain 0(控制Domain)Domain 0,现在升级到了CentOS 6.10,正式的64位版本。过去32位版本的Domain对内存的限制已经成为过去,现在可以支持更多的PCI设备和内存。当然,在Domain 0中会自动对多余的内存进行自动化的配置;2.最新的Xen Project Hypervisor V4.4针对Xen 4.4hypervisor的改进中特别值得一提的是对事件通道数量的提升,特别是对桌面虚拟化场景下有大量虚拟机设备的情况尤为重要(包括了大量的磁盘、网络适配器等等),试试这个版本吧,你会发现虚拟机磁盘性能网络性能好了很多;3.内存的读缓存在几年前我们曾经介绍过IntelliCache技术,XenServerv6.5的内存读缓存技术是对IntelliCache技术的一个进一步改进。现在可以把基础镜像模板放到服务器的本地内存中缓存(旧版本的IntelliCache只能将模板从共享存储读入到服务器的本地硬盘中,这样能节省对存储的读操作的开销),这样对XenApp和XenDesktop环境下的虚拟机启动将会带来质的飞跃;Reducing off-host IOP...
AQEMU虚拟机,支持更换硬件参数的QEMU和KVM模拟器的GUI  AQEMU是一个QEMU和KVM模拟器的GUI。它有一个友好的用户界面,并允许您设置了多数QEMU和KVM的选项。AQEMU 0.8.2该版本QEMU/KVM 0.14支持。一些错误的修正。下载地址:http://sourceforge.net/projects/aqemu/files/aqemu/0.8.2/aqemu-0.8.2.tar.bz2/download
安装首先要在存储设备上做好RAID,设置好iSCSI 目标方(target)。这里主要说明iSCSI initiator的安装。不同的操作系统对应各自的iSCSI initiator,以Redhat enterprise5为例。到网上下载iscsi-initiator-utils-6.2.0.742-0.5.el5.i386.rpm# rpm –ivh iscsi-initiator-utils-6.2.0.742-0.5.el5.i386.rpm在服务器上安装了iSCSI initiator以及iscsiadmiscsiadm是基于命令行的iscsi管理工具,提供了对iscsi节点、会话、连接以及发现记录的操作。iscsiadm的使用说明可以查看/usr/share/doc/iscsi-initiator-utils-6.2.0.742/README,也可以运行man iscsiadm或iscsiadm --help使用下面来讲一下连接iscsi设备的步骤:1 启动iscsi守护进程#service iscsi start默认情况下,系统启动后此进程会自动运行2 发现目标默认情况下,iscsi发起方和目标方之间通过端口3260连接。假设已知iscsi的目标方IP是192.168.1.1,运行下列命令:#chkconfig iscsi on;chkconfig iscsi --list (查看ISCSI启动状态)#iscsiadm -m discovery -t sendtargets -p 192.168.1.1:3260此时找到拥有一个目标(target)192.168.1.1:3260,1 iqn.1997-05.com.test:raid被发现的目标也叫做节点3登入节点以上面被发现...
ESXi 5.0 host experiences a purple diagnostic screen with the errors "Failed to ack TLB invalidate" or "no heartbeat" on HP servers with PCC support (2000091) Symptoms ESXi 5.0 host fails with a purple diagnostic screen The purple diagnostic screen or core dump contains messages similar to:PCPU 39 locked up. Failed to ack TLB invalidate (total of 1 locked up, PCPU(s): 39).0x41228efc7b88:[0x41800646cd62]Panic@vmkernel#nover+0xa9 stack: 0x41228efe50000x41228efc7cb8:[0x4180064989af]TLBDoInvalidate@vmkernel#nover+0x45a stack: 0x41228efc7ce8@BlueScreen: PCPU 0: no heartbeat, IPIs received (0/1)....0x4122c27c7a68:[0x41800966cd62]Panic@vmkernel#nover+0xa9 stack: 0x4122c27c7a980x4122c27c7ad8:[0x4180098d80ec]Heartbeat_DetectCPULockups@vmkernel#nover+0x2d3 stack: 0x0...NMI: 1943: NMI IPI received. Was eip(base):ebp:cs [0x7eb2e(0x418009600000):0x4122c2307688:0x4010](Src 0x1, CPU140)Heartbeat: 618: PCPU 140 didn't have a heartbeat for 8 seconds. *may* be locked up Cause Some ...
出现该问题的原因是新版本vSphere Cient中增强了加密强度,而Windows XP和Windows Server 2003未能达到所需加密强度,因為 ESXi 停用了較不安全的 cipher suite而 XP/2003 正是使用了不夠安全的 cipher suite 去連線 由于微软已经停止对XP支持并未发布相应补丁 解决方法:修改VCenter Server配置文件vpxd.cfg文件路径:c:\programdata\vmware\vmware virtual center\  或 /etc/vmware-vpx/ 找到如下内容:<ssl><useCompression>true</useCompression></ssl> 修改为下面内容:<ssl><cipherList>ALL</cipherList><useCompression>true</useCompression></ssl> 然后重启VC服务即可正常访问 对于esxi主机,解决方法如下:    ssh 連線到 ESXi    移動到設定檔的位置:cd /etc/vmware/rhttpproxy/    先做個備份:cp config.xml config_bak.xml    修改 config.xml :vi config.xml    找到 <vmacore> 裡面的 <ssl> 區塊    在裡面加上一行:<cipherList>ALL</cipherList>    存檔後重啟服務:/etc/init....
您所在的组无权查看该日志
    总共58页,当前第30页 | 页数:
  1. 20
  2. 21
  3. 22
  4. 23
  5. 24
  6. 25
  7. 26
  8. 27
  9. 28
  10. 29
  11. 30
  12. 31
  13. 32
  14. 33
  15. 34
  16. 35
  17. 36
  18. 37
  19. 38
  20. 39
  21. 40