首页  云计算知识 
KVM 虚拟化是什么

KVM 虚拟化是什么?

KVM(Kernel-based Virtual Machine)是一种开源虚拟化技术,自 Linux 2.6.20 版之后开始集成在各大主流的Linux发行版中。该技术可以让运行Linux的电脑成为虚拟机宿主机(Host),进而运行多个相互隔离的虚拟环境(Guest),即虚拟机。

新用户享受中国区域 12 个月免费套餐

KVM虚拟化是什么?
首页  云计算知识 
KVM 虚拟化是什么
移动应用是什么?

KVM 虚拟化是什么?

KVM(Kernel-based Virtual Machine)是一种开源虚拟化技术,自 Linux 2.6.20 版之后开始集成在各大主流的Linux发行版中。该技术可以让运行Linux的电脑成为虚拟机宿主机(Host),进而运行多个相互隔离的虚拟环境(Guest),即虚拟机。

新用户享受中国区域 12 个月免费套餐

KVM 虚拟化有什么用?

KVM 虚拟化有什么用?

和其他同类虚拟化技术(例如Windows自带的Hyper-V,以及VMware等产品)类似,KVM虚拟化技术最大的作用在于,可以通过一套物理硬件创建出相互隔离的多个虚拟环境,每个这样的环境(即每个虚拟机)中可以分别安装运行不同的操作系统和程序,所有虚拟环境之间相互隔离,因此不会对主机和其他虚拟环境产生任何影响。

例如在生产环境中,可以通过一台主机上的多个虚拟机运行不同工作负载,借此在充分利用硬件性能的同时,让不同工作负载通过隔离的虚拟环境获得更高程度的安全保护;软件开发者可以利用一台主机虚拟出不同的操作系统环境,借此测试自己软件的兼容性;普通用户也可以利用类似方式在一台硬件上安装不同版本甚至不同类型的操作系统,满足某些软件对操作系统的兼容性要求。

KVM 虚拟化有什么优势?

KVM虚拟化的主要优势_安全性

安全性

KVM 虚拟化技术可通过安全增强型 Linux(SELinux)和安全虚拟化(sVirt)等技术加强虚拟机的安全性与隔离程度。SELinux 可以为虚拟机建立更强的安全边界,sVirt 则能扩展 SELiux 的功能,让虚拟环境中运行的操作系统可以应用强制访问控制机制。

KVM虚拟化的主要优势_存储

存储

KVM 虚拟化技术可以利用 Linux 所能支持的任何存储设备,例如本地磁盘和网络附加存储。此外,KVM 虚拟化技术还可以借助多路径 I/O 能力大幅提升存储性能并获得冗余。虚拟机磁盘镜像支持精简配置,借此可以按需分配存储,而不需要预先为每个虚拟机足额分配所需的存储容量。

KVM虚拟化的主要优势_性能和可扩展性

性能和可扩展性

源自于 Linux 的 KVM 虚拟化技术,可以针对客户端和请求数量的增长灵活扩展,进而满足工作负载对性能和容量的需求。例如在工作负载激增时,可以自动扩展虚拟机的数量和容量,满足峰值负载要求。KVM 虚拟化技术的这种能力非常适合数据中心和私有云等企业内部使用的虚拟化环境。

KVM虚拟化的主要优势_实时迁移

实时迁移

KVM 虚拟化技术可以支持实时迁移,借此,用户可以在物理宿主机和虚拟机之间移动正在运行的虚拟机,迁移过程中 KVM 虚拟机依然可以保持持续运行的状态,甚至网络连接也会保持活跃,完全不会造成服务中断。借此可以实现 KVM 虚拟机从一台宿主机到另一台宿主机,从本地到云端,或从一个云平台到另一个云平台的灵活迁移。

KVM 虚拟化有什么优势?

KVM虚拟化的主要优势_安全性

安全性

KVM 虚拟化技术可通过安全增强型 Linux(SELinux)和安全虚拟化(sVirt)等技术加强虚拟机的安全性与隔离程度。SELinux 可以为虚拟机建立更强的安全边界,sVirt 则能扩展 SELiux 的功能,让虚拟环境中运行的操作系统可以应用强制访问控制机制。

KVM虚拟化的主要优势_存储

存储

KVM 虚拟化技术可以利用 Linux 所能支持的任何存储设备,例如本地磁盘和网络附加存储。此外,KVM 虚拟化技术还可以借助多路径 I/O 能力大幅提升存储性能并获得冗余。虚拟机磁盘镜像支持精简配置,借此可以按需分配存储,而不需要预先为每个虚拟机足额分配所需的存储容量。

KVM虚拟化的主要优势_性能和可扩展性

性能和可扩展性

源自于 Linux 的 KVM 虚拟化技术,可以针对客户端和请求数量的增长灵活扩展,进而满足工作负载对性能和容量的需求。例如在工作负载激增时,可以自动扩展虚拟机的数量和容量,满足峰值负载要求。KVM 虚拟化技术的这种能力非常适合数据中心和私有云等企业内部使用的虚拟化环境。

KVM虚拟化的主要优势_实时迁移

实时迁移

KVM 虚拟化技术可以支持实时迁移,借此,用户可以在物理宿主机和虚拟机之间移动正在运行的虚拟机,迁移过程中 KVM 虚拟机依然可以保持持续运行的状态,甚至网络连接也会保持活跃,完全不会造成服务中断。借此可以实现 KVM 虚拟机从一台宿主机到另一台宿主机,从本地到云端,或从一个云平台到另一个云平台的灵活迁移。

了解亚马逊云科技云主机相关资讯

了解亚马逊云科技云主机相关资讯

Linux 虚拟机上的系统时钟源的优化

虚拟机中某些计时系统(如时间戳记计数器)本身是虚拟的。从 TSC 寄存器读取数据可能会导致系统性能的下降,从而导致读取结果不准确和时间倒退。为解决上述这些在虚拟化中时钟的问题,常见的 Hypervisor 诸如 KVM 和 XEN 都提供了自己的计时系统 PVclock。而在 LINUX 内核中,则有一组驱动程序来提供一个通用接口,这个接口的实现可以是一条指令,也可以从特殊的内存位置或寄存器中读取,我们将这个接口称为 “时钟源” (clocksource)。

了解详情 

通过创建双集群来提高云端高性能计算能力

在某些高性能计算场景中,客户会同时使用到 CPU 实例和 GPU 实例,这样就需要创建两个 ParallelCluster 集群。而 ParallelCluster 则要求到两个集群的主节点上分别提交任务,这种情况下,如果客户要使用 ParallelCluster ,必须需要修改程序,不仅耗时耗力,而且需要改变用户原来的使用习惯。Slurm +ParallelCluster 多集群解决方案,在两个 ParallelCluster 集群前面增加一个管理节点,通过该管理节点可以提交任务到任意集群,这样客户的程序可以运行在管理节点上,不需要做任何改变。

了解详情 

利用 Amazon SageMaker 对 GPU 运算能力进行优化

Amazon SageMaker 是一项全托管服务,能够帮助开发人员与数据科学家快速、轻松地构建、训练并部署任意规模的机器学习(ML)模型。在本文中,我们将重点介绍在 Amazon SageMaker 上进行训练时,能够切实提高 I/O 以优化 GPU 性能的通用型技术。这些技术方法具有良好的普适性,不对基础设施或深度学习框架本身做出任何要求。通过优化 I/O 处理例程,整个 GPU 训练中的性能提升最多可提升至 10 倍水平。

了解详情 

Auto Scaling Group 是如何检测运行数据以实现有状态云应用的管理

在很多情况下,尤其是在云应用管理的场景中,需要对 Auto Scaling Group 里的 EC2 在启动和停止时执行一些特定的操作,从而实现定制化的功能,满足业务上的需求。本文介绍的解决方案是通过利用 Auto Scaling Group 生命周期功能,判断外部状态信息,结合 Amazon Systems Manager 登陆实例,执行特定的命令或脚本来实现对有状态应用的管理,满足上述业务上的需求。

了解详情 

Linux 虚拟机上的系统时钟源的优化

虚拟机中某些计时系统(如时间戳记计数器)本身是虚拟的。从 TSC 寄存器读取数据可能会导致系统性能的下降,从而导致读取结果不准确和时间倒退。为解决上述这些在虚拟化中时钟的问题,常见的 Hypervisor 诸如 KVM 和 XEN 都提供了自己的计时系统 PVclock。而在 LINUX 内核中,则有一组驱动程序来提供一个通用接口,这个接口的实现可以是一条指令,也可以从特殊的内存位置或寄存器中读取,我们将这个接口称为 “时钟源” (clocksource)。

了解详情 

通过创建双集群来提高云端高性能计算能力

在某些高性能计算场景中,客户会同时使用到 CPU 实例和 GPU 实例,这样就需要创建两个 ParallelCluster 集群。而 ParallelCluster 则要求到两个集群的主节点上分别提交任务,这种情况下,如果客户要使用 ParallelCluster ,必须需要修改程序,不仅耗时耗力,而且需要改变用户原来的使用习惯。Slurm +ParallelCluster 多集群解决方案,在两个 ParallelCluster 集群前面增加一个管理节点,通过该管理节点可以提交任务到任意集群,这样客户的程序可以运行在管理节点上,不需要做任何改变。

了解详情 

利用 Amazon SageMaker 对 GPU 运算能力进行优化

Amazon SageMaker 是一项全托管服务,能够帮助开发人员与数据科学家快速、轻松地构建、训练并部署任意规模的机器学习(ML)模型。在本文中,我们将重点介绍在 Amazon SageMaker 上进行训练时,能够切实提高 I/O 以优化 GPU 性能的通用型技术。这些技术方法具有良好的普适性,不对基础设施或深度学习框架本身做出任何要求。通过优化 I/O 处理例程,整个 GPU 训练中的性能提升最多可提升至 10 倍水平。

了解详情 

Auto Scaling Group 是如何检测运行数据以实现有状态云应用的管理

在很多情况下,尤其是在云应用管理的场景中,需要对 Auto Scaling Group 里的 EC2 在启动和停止时执行一些特定的操作,从而实现定制化的功能,满足业务上的需求。本文介绍的解决方案是通过利用 Auto Scaling Group 生命周期功能,判断外部状态信息,结合 Amazon Systems Manager 登陆实例,执行特定的命令或脚本来实现对有状态应用的管理,满足上述业务上的需求。

了解详情 

亚马逊云科技云主机相关产品

亚马逊云科技云主机相关产品

Amazon EC2

Amazon EC2


无需预先承诺即可安全并且可以灵活调整大小的云服务器/云主机容量

 Amazon EC2 Auto Scaling

Amazon EC2 Auto Scaling


根据您定义的条件自动扩展 Amazon EC2 容量

Amazon Lambda

Amazon Lambda


运行代码,无需顾虑服务器。只需按消耗的计算时间付费。

Amazon Batch

Amazon Batch


以完全托管的方式进行任何规模的批处理

准备好免费体验亚马逊云科技相关云主机产品了吗?
准备好免费体验亚马逊云科技相关云主机产品了吗?

新用户注册,可免费体验 12 个月

欢迎加入亚马逊云科技培训中心

从 0 到 1 轻松上手云服务,获取更多官方开发资源及培训教程

欢迎加入亚马逊云科技培训中心

从 0 到 1 轻松上手云服务,获取更多
官方开发资源及培训教程