解决办法:
1.在源计算节点上/var/run/libvirt/qemu/instance–xxx.xml文中将vnc的参数修改成0.0.0.0
2.重启源计算节点libvirtd
3.然后再执行nova live-migration命令
这个操作已经编写了程序来自动完成
4.迁移完成后console.log,disk属主变成了root/root 迁移完成后,发现虚机的console.log和disk文件属主由qemu.qumu变成了root.root,这个估计是openstack迁移程序的问题,这个问题目前没有影响虚机。 解决办法: 修改文件属主, 这个操作已经编写了程序来自动完成 5.源节点和目的节点cpu不兼容问题 迁移失败,在 /var/log/nova/compute的日志: "InvalidCPUInfo: Unacceptable CPU info: CPU doesn't have compatibility.\n\n0\n\nRefer to http://libvirt.org/html/libvirt-libvirt.html#virCPUCompareResult\n"] 解决办法: 目前还没有解决办法 6.目的节点内存为负,迁移失败,从控制节点的api.log上输出的错误是目的节点内存为-3400,不能满足迁移的需要。
解决办法:
用nova命令指定在该计算节点上创建虚机,能够成功。估计是迁移时候的调度算法和创建虚机时的调度算法不一致。
7.错误日志,在2.4上api.log 迁移时候一般看的日志有: 1.目的节点上的/var/log/libvirt/qemu/instances–xxx.log 2.目的节点上的/var/log/nova/compute.log 3.源节点上的/var/log/nova/compute.log 有时候迁移失败,命令行执行后报错: ERROR: Live migration of instance bd785968-72f6-4f70-a066-b22b63821c3b to host compute-13 failed (HTTP 400) (Request-ID: req-180d27b5-9dc7-484f-9d9a-f34cccd6daa2) 但在上述的三个日志文件中都看不到任何的错误信息。 解决办法: 在控制节点或者是在操作迁移命令的节点上/var/log/nova/api.log有错误信息 走的弯路 1.尝试不用修改nova.conf里的vncserver_listen参数为0.0.0.0, 将/var/run/log/libvirt/qemu/instances--xxx.log里的vnc改成目的节点的ip,重启libvritd,然后进行迁移,可以成功,但如果迁移失败,当需要重新虚机的时候,虚机启动失败,在/var/log/libvrit/qemu/instances-xx.log的错误是 Failed to start VNC server on `172.18.2.15:0': Failed to bind socket: Cannot assign requested address 而/mnt/instances/instance--xxx/libvirt.xml里没有修改成目的节点的Ip。不知道这个参数被保存到了哪里 2.vnc 端口问题 在一次迁移失败后,在目的节点/var/log/libvirt/qemu/instance--xxx.log里的错误是: 2013-11-05 05:42:39.401+0000: shutting down qemu: terminating on signal 15 from pid 10271, 猜想是由于虚机在源节点上的vnc监听端口在目的节点上被占用,所以导致启动不了。后来在其他机器上做了测试发现,在迁移到目的节点后vnc的端口自己会调整。
http://www.mirantis.com/blog/tutorial-openstack-live-migration-with-kvm-hypervisor-and-nfs-shared-storage/