GREENPLum数据仓库测试方案
Greenplum作为企业级分布式数据仓库的核心平台,其性能、稳定性与数据准确性直接关系到业务决策的精准性与可靠性,系统化的测试方案是保障Greenplum成功部署与长期稳定运行的关键环节,本文结合行业最佳实践与 酷番云 的实战经验,从测试目标、环境搭建、性能验证、数据一致性、容灾能力、安全性与用户体验等维度,构建全面、可落地的测试框架,助力企业高效评估Greenplum的性能与可靠性。
测试方案
测试的核心目标在于验证Greenplum在真实业务场景下的能力表现,确保其满足负载处理、数据一致性、容灾恢复、安全合规等关键指标,测试范围覆盖从数据加载、查询分析到报表生成的全流程,兼顾OLAP(在线分析处理)与OLTP(在线事务处理)混合场景,测试遵循“分层测试、真实复现、自动化与人工结合”的原则,确保测试结果的全面性与可信度。
测试环境搭建与准备
测试环境的复现性是测试结果可信的基础,需构建与生产环境高度相似的硬件配置(如CPU、内存、磁盘IO)与软件环境(操作系统、Greenplum版本),具体要求如下:
酷番云实战案例 :某大型零售企业部署Greenplum时,通过酷番云“弹性测试集群”服务,快速搭建了与生产环境1:1的测试环境,该服务支持动态调整节点数量与配置,用户可根据测试需求扩展至数十节点,确保测试环境的真实性,酷番云的“环境镜像”功能可一键复制生产环境配置,降低环境搭建成本与复杂度。
性能测试
性能测试是验证Greenplum处理能力的关键环节,主要包括负载测试、压力测试与基准测试。
数据一致性测试
数据一致性是数据仓库的核心要求,涉及事务处理、数据同步与完整性验证,测试内容如下:
容灾与高可用测试
Greenplum作为分布式系统,容灾能力至关重要,测试内容包括:
安全性与权限测试
数据仓库涉及敏感数据,安全测试必不可少,包括:
用户体验与验收测试
测试最终要服务于业务用户,需模拟真实业务场景。
测试执行与报告
测试执行需遵循标准流程:测试计划→环境准备→测试用例设计→执行→缺陷跟踪→报告输出,酷番云“测试管理平台”提供全流程管理功能,包括测试用例库(支持自动化测试脚本集成)、缺陷管理(跟踪缺陷状态与修复进度)、报告生成(可视化呈现测试结果),测试报告需包含测试目标、环境配置、测试结果、缺陷清单与改进建议,为企业决策提供依据。
计算机分类和计算机硬件技术发展状况
按微处理器(CPU)字长分类按微处理器字长来分,微型计算机一般分为4位、8位、16位、32位和64位机几种。 (1)4位微型计算机;用4位字长的微处理器为CPU,其数据总线宽度为4位,一个字节数据要分两次来传送或处理。 4位机的指令系统简单、运算功能单一,主要用于袖珍或台式计算器、家电、娱乐产品和简单的过程控制,是微型机的低级阶段。 (2)8位微型计算机:用8位字长的微处理器作CPU,其数据总线宽度为8位。 8位机中字长和字节是同一个概念。 8位微处理器推出时,微型机在硬件和软件技术方面都已比较成熟,所以8位机的指令系统比较完善,寻址能力强,外围配套电路齐全,因而使8位机通用性强,应用宽广,广泛用于事务管理、工业生产过程的自动检测和控制、通信、智能终端、教育以及家用电器控制等领域。 (3)16位微机:用高性能的16位微处理器作CPU,数据总线宽度为16位。 由于16位微处理器不仅在集成度和处理速度、数据总线宽度、内部结构等方面比8位机有本质上的不同,由它们构成的微型机在功能和性能上已基本达到了当时的中档小型机的水平,特别是以Intel 8086为CPU的16位微型机IBM PC/XT不仅是当时相当一段时间内的主流机型,而量其用户拥有量也是世界第一,以至在设计更高档次的微机时,都要保持对他的兼容。 16位机除原有的应用领域外,还在计算机网络中扮演了重要角色。 (4)32位微机:32位微机使用32位的微处理器作CPU,这是目前的主流机型。 从应用角度看,字长32位是较理想的,它可满足了绝大部分用途的需要,包括文字、图形、表格处理及精密科学计算等多方面的需要。 典型产品有Intel ,Intel ,MC,MC、Z-等。 特别是1993年Intel公司推出Pentium微处理器之后,使32位微处理器技术进入一个崭新阶段。 他不仅继承了其前辈的所有优点而且在许多方面有新的突破,同时也满足了人们对图形图像、实时视频处理、语言识别、大流量客户机/服务器应用等应用领域日益迫切的需求。 (5)64位微机:64位微机使用64位的微处理器作CPU,这是目前的各个计算机领军公司争相开发的最新产品。 其实高档微处理器早就有了64位字长的产品。 只是价格过高,不适合微型计算机使用,通常用在工作站或服务器上。 现在,是到了64位微处理器进入微型计算机领域的时机了。 估计Intel公司和HP公司会在2003年推出他们合作研制的第一款用于微型机的64位微处理器。 相信64位微处理器会将微型计算机推向一个新的阶段。 计算机的历史 现代计算机的诞生和发展 现代计算机问世之前,计算机的发展经历了机械式计算机、机电式计算机和萌芽期的电子计算机三个阶段。 早在17世纪,欧洲一批数学家就已开始设计和制造以数字形式进行基本运算的数字计算机。 1642年,法国数学家帕斯卡采用与钟表类似的齿轮传动装置,制成了最早的十进制加法器。 1678年,德国数学家莱布尼兹制成的计算机,进一步解决了十进制数的乘、除运算。 英国数学家巴贝奇在1822年制作差分机模型时提出一个设想,每次完成一次算术运算将发展为自动完成某个特定的完整运算过程。 1884年,巴贝奇设计了一种程序控制的通用分析机。 这台分析机虽然已经描绘出有关程序控制方式计算机的雏型,但限于当时的技术条件而未能实现。 巴贝奇的设想提出以后的一百多年期间,电磁学、电工学、电子学不断取得重大进展,在元件、器件方面接连发明了真空二极管和真空三极管;在系统技术方面,相继发明了无线电报、电视和雷达……。 所有这些成就为现代计算机的发展准备了技术和物质条件。 与此同时,数学、物理也相应地蓬勃发展。 到了20世纪30年代,物理学的各个领域经历着定量化的阶段,描述各种物理过程的数学方程,其中有的用经典的分析方法已根难解决。 于是,数值分析受到了重视,研究出各种数值积分,数值微分,以及微分方程数值解法,把计算过程归结为巨量的基本运算,从而奠定了现代计算机的数值算法基础。 社会上对先进计算工具多方面迫切的需要,是促使现代计算机诞生的根本动力。 20世纪以后,各个科学领域和技术部门的计算困难堆积如山,已经阻碍了学科的继续发展。 特别是第二次世界大战爆发前后,军事科学技术对高速计算工具的需要尤为迫切。 在此期间,德国、美国、英国部在进行计算机的开拓工作,几乎同时开始了机电式计算机和电子计算机的研究。 德国的朱赛最先采用电气元件制造计算机。 他在1941年制成的全自动继电器计算机Z-3,已具备浮点记数、二进制运算、数字存储地址的指令形式等现代计算机的特征。 在美国,1940~1947年期间也相继制成了继电器计算机MARK-1、MARK-2、Model-1、Model-5等。 不过,继电器的开关速度大约为百分之一秒,使计算机的运算速度受到很大限制。 电子计算机的开拓过程,经历了从制作部件到整机从专用机到通用机、从“外加式程序”到“存储程序”的演变。 1938年,美籍保加利亚学者阿塔纳索夫首先制成了电子计算机的运算部件。 1943年,英国外交部通信处制成了“巨人”电子计算机。 这是一种专用的密码分析机,在第二次世界大战中得到了应用。 1946年2月美国宾夕法尼亚大学莫尔学院制成的大型电子数字积分计算机(ENIAC),最初也专门用于火炮弹道计算,后经多次改进而成为能进行各种科学计算的通用计算机。 这台完全采用电子线路执行算术运算、逻辑运算和信息存储的计算机,运算速度比继电器计算机快1000倍。 这就是人们常常提到的世界上第一台电子计算机。 但是,这种计算机的程序仍然是外加式的,存储容量也太小,尚未完全具备现代计算机的主要特征。 新的重大突破是由数学家冯·诺伊曼领导的设计小组完成的。 1945年3月他们发表了一个全新的存储程序式通用电子计算机方案—电子离散变量自动计算机(EDVAC)。 随后于1946年6月,冯·诺伊曼等人提出了更为完善的设计报告《电子计算机装置逻辑结构初探》。 同年7~8月间,他们又在莫尔学院为美国和英国二十多个机构的专家讲授了专门课程《电子计算机设计的理论和技术》,推动了存储程序式计算机的设计与制造。 1949年,英国剑桥大学数学实验室率先制成电子离散时序自动计算机(EDSAC);美国则于1950年制成了东部标准自动计算机(SFAC)等。 至此,电子计算机发展的萌芽时期遂告结束,开始了现代计算机的发展时期。 在创制数字计算机的同时,还研制了另一类重要的计算工具——模拟计算机。 物理学家在总结自然规律时,常用数学方程描述某一过程;相反,解数学方程的过程,也有可能采用物理过程模拟方法,对数发明以后,1620年制成的计算尺,己把乘法、除法化为加法、减法进行计算。 麦克斯韦巧妙地把积分(面积)的计算转变为长度的测量,于1855年制成了积分仪。 19世纪数学物理的另一项重大成就——傅里叶分析,对模拟机的发展起到了直接的推动作用。 19世纪后期和20世纪前期,相继制成了多种计算傅里叶系数的分析机和解微分方程的微分分析机等。 但是当试图推广微分分析机解偏微分方程和用模拟机解决一般科学计算问题时,人们逐渐认识到模拟机在通用性和精确度等方面的局限性,并将主要精力转向了数字计算机。 电子数字计算机问世以后,模拟计算机仍然继续有所发展,并且与数字计算机相结合而产生了混合式计算机。 模拟机和混合机已发展成为现代计算机的特殊品种,即用在特定领域的高效信息处理工具或仿真工具。 20世纪中期以来,计算机一直处于高速度发展时期,计算机由仅包含硬件发展到包含硬件、软件和固件三类子系统的计算机系统。 计算机系统的性能—价格比,平均每10年提高两个数量级。 计算机种类也一再分化,发展成微型计算机、小型计算机、通用计算机(包括巨型、大型和中型计算机),以及各种专用机(如各种控制计算机、模拟—数字混合计算机)等。 计算机器件从电子管到晶体管,再从分立元件到集成电路以至微处理器,促使计算机的发展出现了三次飞跃。 在电子管计算机时期(1946~1959),计算机主要用于科学计算。 主存储器是决定计算机技术面貌的主要因素。 当时,主存储器有水银延迟线存储器、阴极射线示波管静电存储器、磁鼓和磁心存储器等类型,通常按此对计算机进行分类。 到了晶体管计算机时期(1959~1964),主存储器均采用磁心存储器,磁鼓和磁盘开始用作主要的辅助存储器。 不仅科学计算用计算机继续发展,而且中、小型计算机,特别是廉价的小型数据处理用计算机开始大量生产。 1964年,在集成电路计算机发展的同时,计算机也进入了产品系列化的发展时期。 半导体存储器逐步取代了磁心存储器的主存储器地位,磁盘成了不可缺少的辅助存储器,并且开始普遍采用虚拟存储技术。 随着各种半导体只读存储器和可改写的只读存储器的迅速发展,以及微程序技术的发展和应用,计算机系统中开始出现固件子系统。 20世纪70年代以后,计算机用集成电路的集成度迅速从中小规模发展到大规模、超大规模的水平,微处理器和微型计算机应运而生,各类计算机的性能迅速提高。 随着字长4位、8位、16位、32位和64位的微型计算机相继问世和广泛应用,对小型计算机、通用计算机和专用计算机的需求量也相应增长了。 微型计算机在社会上大量应用后,一座办公楼、一所学校、一个仓库常常拥有数十台以至数百台计算机。 实现它们互连的局部网随即兴起,进一步推动了计算机应用系统从集中式系统向分布式系统的发展。 在电子管计算机时期,一些计算机配置了汇编语言和子程序库,科学计算用的高级语言FORTRAN初露头角。 在晶体管计算机阶段,事务处理的COBOL语言、科学计算机用的ALGOL语言,和符号处理用的LISP等高级语言开始进入实用阶段。 操作系统初步成型,使计算机的使用方式由手工操作改变为自动作业管理。 进入集成电路计算机发展时期以后,在计算机中形成了相当规模的软件子系统,高级语言种类进一步增加,操作系统日趋完善,具备批量处理、分时处理、实时处理等多种功能。 数据库管理系统、通信处理程序、网络软件等也不断增添到软件子系统中。 软件子系统的功能不断增强,明显地改变了计算机的使用属性,使用效率显著提高。 在现代计算机中,外围设备的价值一般已超过计算机硬件子系统的一半以上,其技术水平在很大程度上决定着计算机的技术面貌。 外围设备技术的综合性很强,既依赖于电子学、机械学、光学、磁学等多门学科知识的综合,又取决于精密机械工艺、电气和电子加工工艺以及计量的技术和工艺水平等。 外围设备包括辅助存储器和输入输出设备两大类。 辅助存储器包括磁盘、磁鼓、磁带、激光存储器、海量存储器和缩微存储器等;输入输出设备又分为输入、输出、转换、、模式信息处理设备和终端设备。 在这些品种繁多的设备中,对计算机技术面貌影响最大的是磁盘、终端设备、模式信息处理设备和转换设备等。 新一代计算机是把信息采集存储处理、通信和人工智能结合在一起的智能计算机系统。 它不仅能进行一般信息处理,而且能面向知识处理,具有形式化推理、联想、学习和解释的能力,将能帮助人类开拓未知的领域和获得新的知识。
ZOL里的说的L2是多个CPU的还是单个的?
L2并不是指CPU的核心数量L2是指二级缓存二级缓存又叫L2 CACHE,它是处理器内部的一些缓冲存储器,其作用跟内存一样。 它是怎么出现的呢? 要上溯到上个世纪80年代,由于处理器的运行速度越来越快,慢慢地,处理器需要从内存中读取数据的速度需求就越来越高了。 然而内存的速度提升速度却很缓慢,而能高速读写数据的内存价格又非常高昂,不能大量采用。 从性能价格比的角度出发,英特尔等处理器设计生产公司想到一个办法,就是用少量的高速内存和大量的低速内存结合使用,共同为处理器提供数据。 这样就兼顾了性能和使用成本的最优。 而那些高速的内存因为是处于CPU和内存之间的位置,又是临时存放数据的地方,所以就叫做缓冲存储器了,简称“缓存”。 它的作用就像仓库中临时堆放货物的地方一样,货物从运输车辆上放下时临时堆放在缓存区中,然后再搬到内部存储区中长时间存放。 货物在这段区域中存放的时间很短,就是一个临时货场。 最初缓存只有一级,后来处理器速度又提升了,一级缓存不够用了,于是就添加了二级缓存。 二级缓存是比一级缓存速度更慢,容量更大的内存,主要就是做一级缓存和内存之间数据临时交换的地方用。 现在,为了适应速度更快的处理器P4EE,已经出现了三级缓存了,它的容量更大,速度相对二级缓存也要慢一些,但是比内存可快多了。 缓存的出现使得CPU处理器的运行效率得到了大幅度的提升,这个区域中存放的都是CPU频繁要使用的数据,所以缓存越大处理器效率就越高,同时由于缓存的物理结构比内存复杂很多,所以其成本也很高。 大量使用二级缓存带来的结果是处理器运行效率的提升和成本价格的大幅度不等比提升。 举个例子,服务器上用的至强处理器和普通的P4处理器其内核基本上是一样的,就是二级缓存不同。 至强的二级缓存是2MB~16MB,P4的二级缓存是512KB,于是最便宜的至强也比最贵的P4贵,原因就在二级缓存不同。 即L2 Cache。 由于L1级高速缓存容量的限制,为了再次提高CPU的运算速度,在CPU外部放置一高速存储器,即二级缓存。 工作主频比较灵活,可与CPU同频,也可不同。 CPU在读取数据时,先在L1中寻找,再从L2寻找,然后是内存,在后是外存储器。 所以L2对系统的影响也不容忽视。 CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。 在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。 由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存 内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。 缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。 缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。 正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。 这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。 总的来说,CPU读取数据的顺序是先缓存后内存。 最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。 当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。 因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。 一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。 二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。 英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。 随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。 现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。 而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。 二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。 而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。 CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。 从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。 也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。 由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。 那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。 目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。 为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。 一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。 因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。 当需要替换时淘汰行计数器计数值最大的数据行出局。 这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。 CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。 一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。 二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高 缓存(Cache)大小是CPU的重要指标之一,其结构与大小对CPU速度的影响非常大。 简单地讲,缓存就是用来存储一些常用或即将用到的数据或指令,当需要这些数据或指令的时候直接从缓存中读取,这样比到内存甚至硬盘中读取要快得多,能够大幅度提升CPU的处理速度。 所谓处理器缓存,通常指的是二级高速缓存,或外部高速缓存。 即高速缓冲存储器,是位于CPU和主存储器DRAM(Dynamic RAM)之间的规模较小的但速度很高的存储器,通常由SRAM(静态随机存储器)组成。 用来存放那些被CPU频繁使用的数据,以便使CPU不必依赖于速度较慢的DRAM(动态随机存储器)。 L2高速缓存一直都属于速度极快而价格也相当昂贵的一类内存,称为SRAM(静态RAM),SRAM(Static RAM)是静态存储器的英文缩写。 由于SRAM采用了与制作CPU相同的半导体工艺,因此与动态存储器DRAM比较,SRAM的存取速度快,但体积较大,价格很高。 处理器缓存的基本思想是用少量的SRAM作为CPU与DRAM存储系统之间的缓冲区,即Cache系统。 以及更高档微处理器的一个显著特点是处理器芯片内集成了SRAM作为Cache,由于这些Cache装在芯片内,因此称为片内Cache。 486芯片内Cache的容量通常为8K。 高档芯片如Pentium为16KB,Power PC可达32KB。 Pentium微处理器进一步改进片内Cache,采用数据和双通道Cache技术,相对而言,片内Cache的容量不大,但是非常灵活、方便,极大地提高了微处理器的性能。 片内Cache也称为一级Cache。 由于486,586等高档处理器的时钟频率很高,一旦出现一级Cache未命中的情况,性能将明显恶化。 在这种情况下采用的办法是在处理器芯片之外再加Cache,称为二级Cache。 二级Cache实际上是CPU和主存之间的真正缓冲。 由于系统板上的响应时间远低于CPU的速度,如果没有二级Cache就不可能达到486,586等高档处理器的理想速度。 二级Cache的容量通常应比一级Cache大一个数量级以上。 在系统设置中,常要求用户确定二级Cache是否安装及尺寸大小等。 二级Cache的大小一般为128KB、256KB或512KB。 在486以上档次的微机中,普遍采用256KB或512KB同步Cache。 所谓同步是指Cache和CPU采用了相同的时钟周期,以相同的速度同步工作。 相对于异步Cache,性能可提高30%以上。 目前,PC及其服务器系统的发展趋势之一是CPU主频越做越高,系统架构越做越先进,而主存DRAM的结构和存取时间改进较慢。 因此,缓存(Cache)技术愈显重要,在PC系统中Cache越做越大。 广大用户已把Cache做为评价和选购PC系统的一个重要指标。 现在的CPU普遍有一级缓存和二级缓存。 一般来说,一级缓存的数量比较少,而二级企业缓存的数量一般比一级缓存大几倍。 为什么要缓存呢,这主要是CPU厂家为了提高CPU的使用效率。 因为,随着CPU的速度的快速发展,目前的CPU速度已经达到一个令人惊讶的速度,据个例子来说,一个奔腾3-1G的CPU其运算
ddr1与ddr2的内存有什么分别啊
在选择内存的时候,应注意选择适合自己主板的速度。 例如:DDR 400那么就选择DDR 400如果选择成比这个频率高的话,混合使用会导致电脑在某个时间内会出现不稳定。 莫名其妙死机无法启动等等。 有的时候也能启动起来。 在容量方面,就应加比现在使用量多出一倍这样的概念!例如,使用512的加成1G,感觉上是多加,存的东西越多,就应该更好用。 !其实把它充分发挥起来还是个问题。 往往受到与处理器交换的速度慢,例如仓库很大,用个小汽车运?你把仓库建的更大!?小汽车?关键是那个DDR的速度不行,所以不同时代的电脑容量与速度交换是有限的。 为了让你能更好的了解,我复制个内容给你看看内存的发展速度: 前端总线是一个很重要的数据传输!首先北桥芯片收集 显示卡的总线, 内存的总线!然后由北桥芯片提交给CPU!提交给CPU的这段数据大小就是所说的FSB(前端总线)!首先前端总线与CPU的关系是紧密相连的!例如说:过去时代的133前端总线如果是使用的是100内存那么与133差了33!那么这33是一个不必要的性能损失!即!在北桥芯片提交给CPU时速度也就是一个损失!首先了解一下 内存的频率的发展情况DDR是双触发模式 由过去的时代 133 双触发模式成为266,是一个重大的飞跃!然后到 266 333 400DDR2又在DDR的基础上双触发模式 由原来的DDR 266 到现在的 533。 然后到 266*2=533 333*2=667 400*=800由于DDR3已经出来但是价格比较贵所以在市场上比较少!所以现在一般使用主板带的双通道功能!可以插两根 533 这里就不是双触发模式 而是主板的双通道功能!533*2=1066 等等等够详细吧,祝你选择内存成功,我累死了那么认真还不选择我吗?我在QQ问里面比赛!选择我哦。 !














发表评论