新闻中心

EEPW首页 > 测试测量 > 设计应用 > 论大型计算机平台虚拟化的局限性

论大型计算机平台虚拟化的局限性

作者:时间:2012-01-23来源:网络收藏

2、网络连接能力和延迟

本文引用地址:http://www.eepw.com.cn/article/194509.htm

  一个应用程序的空间拓扑位置中的任何改变都可能引起通信延迟的改变,从而影响到应用程序的性能。如果这些变化在错误的地方引起延迟,如在应用服务器与数据库之间引起延时,性能就会受到不利的影响。因此,开始采用其数据库已经在计算机中的目标应用程序是一个很好的战略。

  3、应用程序连接性能

  不要仅寻找己经与计算机对话的应用程序,机构应该寻找相互对话的应用程序。通过整台到同一个系统,这些应用程序通过促进不会对网络产生任何影响的“对话”来实现巨大的好处。不过,需要提醒的是,这种策略有时候能够绕过重要的网络安全控制措施,因此要认真处理崩溃的应用层和通信路径的问题。

  工作量分析

  分析计算机的最具有挑战性的问题之一是适当地实现系统方式的正常化。因为数据中心出现的多重工作量个性和平台的各种不同的特点,得到正确的答案并不是一件很容易的事。处理器使用率必须要适当地实现正常化,必须要考虑到I/O速率,内存使用率和环境转换,以保证准确的结果。

  要解决这个问题,许多发表的测试基准取消了工作量的高带宽和高同步化部分。因此,有必要创建一个能够准确地捕捉不同平台种类相对优点的特殊的测试基准。换句话说,使用标准的整数基淮实现中型计算机和大型之间的工作量的正常化并不能提供这个正确的答案。

  这个问题并不仅仅是大型计算机遇到的问题。许多技术都受到这样的问题的影晌,有的是由于没有适当的基淮,有的是这种标准刚刚出现。在许多情况下,需要一种灵活的基准单独地根据工作量的具体个性和与其相适应的目标平台的性能实现工作量的正常化。

  1、处理器正常化和基准

  虽然构成工作量在大型计算机上运行的理论是复杂的,获得这个答案的实际方法是很简单的。通过使用代表指定工作量个性的源系统和目标系统相对性能的多个基准,有可能进行一次单项的分析,用一个步骤优化使用多个源/目标组合。然后,每一个源工作量能够根据独特的个性单独实现正常化,目标端点(大型计算机分区)根据合理地淮确预测的利用率填补这个工作容量。虽然这种方法的好处是巨大的,但是,这个挑战变成了确定每一个源工作量的确切的个性是什么。幸运的是有一些关键的指标能够用来把不同类型的活动分开。

  2、I/O分析

  虽然大型的实力之一是其I/O性能,但是,分析源工作量的I/O特点仍是很重要的。在任何整合情况下,把能够促进平衡利用资源的工作量结合在一起是很理想的。因此,I/O局限性应该使用处理器和其它指标进行并行分析,以便提供一个优化利用目标资源的平衡的结果。

  3、内存分析

  当确定一个系统中能够虚拟化多少了应用程序的时候,内存通常是一个决定性的因素。不过,这种分析比较复杂,因为一个应用程序真正的内存需求并不是由系统上使用的物理内存决定的。使用测量的内存使用率来确定什么能够适合目标的要求将提供一个稳妥的答案。但是,它需要使用的内存将超过实际的需求。

  所有这些局限性最终必须都要在一起进行分析以便确定实施虚拟化的优化方法。当针对一系列源服务器和目标服务器考虑这些局限性的时候,这个分析就变成了一个三维的优化问题。

  把应用程序工作量整合到一个大型上是许多叮环境中要考虑的一个伟大的战略。通过恰当地*估要进行整合的应用程序的适应性,这些整合提供的结果以及这个解决方案的拥有总成本,有可能发现一些重大的机会来简化IT基础设施、提高弹性,减少耗电量并且最终减少为这些工作量提供的服务的相关成本。


上一页 1 2 下一页

评论


相关推荐

技术专区

关闭