
难言之隐,分布式存储软硬件解耦究竟难在哪里?
2021-09-18 10:51:09在较长一段时间内,分布式存储软硬件一体和软硬件解耦会长期共存。随着数据价值的增高,场景对数据可靠性的要求随之会越来越严苛,市场的天平就会更多偏向软硬件一体;与此相反,场景对数据可靠性的敏感度越低、短期成本敏感度越高,市场的天平就会更多的偏向软硬件解耦。
说到分布式存储,我们可能都会联想到软件定义存储(Software Defined Storage,即SDS)。代表全球存储厂商的权威协会SNIA(全球网络存储工业协会)对SDS定义:软件定义存储包括管理面的标准接口和自动化,以及数据面Scale-out的块、文件和对象存储服务。
业界很多分析师和厂商都认为“SDS”应该和硬件解耦,可以部署在容器、虚拟机、标准裸金属 服务器 上。但在上述SNIA发布的SDS白皮书中,SNIA并不认同这种观点,而是更关心SDS实现管理面的自动化和数据面的弹性。
或许我们需要把镜头投向21世纪初期,Google提出分布式存储架构的概念并予以实践,在其强大的技术和维护团队支撑下,实现了基于在标准服务器上部署自研分布式存储软件,构建成大规模存储集群,以应对其互联网搜索业务带来的海量数据流。
正所谓一石激起千层浪,其他互联网企业纷纷效仿“老大哥”Google的方式,使得软硬件解耦的概念在互联网行业盛行起来,迎来了一大帮研究者对其价值进行分析,并总结出如下四点价值:
·标准x86服务器的低成本;
·归一数据中心硬件为标准服务器,实现统一硬件运维;
·Infrastructure as Code,存储纳入软件定义数据中心自动化调度框架;
· 用户可以在企业数据中心、边缘或者公有云获得一致的数据服务。
可以说,分布式存储在互联网浪潮中横空出世的样子太过于绚烂,以至于大家忘记了存储系统本身应该有的模样。冷静者更喜欢用辩证的思维分析问题,所以,我们也看到很多用户对“软硬件解耦”表现出担忧,认为软硬件解耦的分布式存储在可靠性、性能、运维等方面存在诸多待改进点。
分布式存储软硬件解耦之难点剖析
难言之隐,分布式存储软硬件解耦究竟难在哪里?总结起来有如下几点:
·难点一:可靠性
存储承载了千行百业用户数据资产,一旦因存储故障出现数据丢失,将给企业带来无法挽回的巨大损失。存储的核心部件是硬盘。业界流传着一句话:SDS就是把不可靠的标准化服务器变成了可靠的存储系统。这句话的背后技术基础是SDS通过跨节点的冗余算法,可以容忍服务器节点故障。但这句话真的完全正确吗?某些用户在实践中发现,其采用的标准服务器偶尔出现批量硬盘/SSD卡故障,冗余算法失效,导致数据丢失。

通过和软硬件一体的厂商深入交流,用户发现软硬件一体存储硬件和标准服务器的质量控制流程有较大差异。标准服务器的成本低廉,生产流程质量控制多数限于CPU、内存、硬盘三大件的简单功能测试。而专业存储硬件增加了避免批量硬盘故障的严苛保障措施,例如:
·TOP存储厂商会在硬盘供应商规划、设计新款产品时,对其特性、规格、方案做严格的评审,以确保新款硬盘和存储产品深度契合。
·新款硬盘上市之前,TOP存储厂商会基于大批量样盘进行长达数月的系统兼容性和稳定性测试,以确保一块硬盘在3到5年生命周期内正常运行。
·硬盘批次变更、Firmware变更,存储厂商会重新执行上述稳定性测试。
·某些TOP存储厂商甚至会指定供应商的硬盘产线。
数据是企业的核心资产,软硬件一体存储的附加值其实来自于平常不为人知的背后故事。
·难点二:性能SLA保障
随着企业数字化转型的深入,分布式存储由最初的开发测试、桌面云等非关键应用,逐步走向生产应用。生产应用除了上述可靠性SLA要求之外,对分布式存储的性能,尤其是数据访问的稳定低时延提出了更严苛的要求。
软硬件解耦的分布式存储在性能设计上存在两大天然缺陷:
·标准服务器不具备机房突然断电时保护内存数据的电池(BBU),所以只能用SSD卡/盘来做数据缓存。SSD的时延远高于内存,导致业界绝大多数的软硬解耦的分布式存储时延无法和生产存储媲美。
·单独采购的分布式存储软件无法和第三方服务器的SSD盘紧密配合,从而无法像业界先进的全闪存存储一样实现全局垃圾回收,控制数量众多的SSD盘各自的垃圾回收导致的生产应用时延波动。
软硬件一体的分布式存储有机会克服如上两大缺陷。我们看到业界先进的分布式存储产品,采用了类似于全闪存存储的电池保护(BBU)、系统级全局垃圾回收,达到了媲美传统生产存储的高并发压力下的1ms稳定时延,从而为分布式存储进入企业生产应用提供了性能的SLA保障。
·难点三:运维风险
软硬件解耦给用户带来大量的维护负担,例如几乎无法实现有效的自动化部署与深度巡检。而且使用期间出现问题时,供应商容易互相推诿,软件和硬件厂家责任界面不清晰,用户反而可能沦为问题定位的第一责任人。
软硬件一体存储可以提前设计自动化部署技术方案,从端到端全生命周期构建自动化运维的能力,从而提升交付、运维效率,降低业务风险。
·难点四:长期总拥有成本
软硬件解耦宣称的降低采购成本本质是认为标准服务器便宜。然而,存储的附加增值更多是软件、质量控制、技术支持。用户花了很大力气分离采购回来软硬件部署上线后,慢慢发现省的钱相对于DIY的后期投入不值一提。原因很简单,在相同质量要求下,规模化工业生产永远比DIY综合成本低。采购成本是显性的,但综合成本不是简单的硬件采购成本,还要考虑使用和维护成本。
根据行业场景各取所需,实现鱼和熊掌兼得
对于广大着急踏上数字化转型高速列车的行业用户来说,到底是选择软硬解耦还是专业存储厂家预集成的软硬件一体产品呢?在商业的世界里,或许没那么多路线和理念之争。软硬件解耦的优势在于采购成本,软硬件一体的长处在于可靠性和性能。所以,根据用户场景的数据重要性,选择最合适自己的方案才是明智之道,鱼和熊掌其实可以兼得。
·软硬件一体已成共识的行业场景:HPC/HPDA(能源勘探、卫星遥感、基因测序、自动驾驶、气象海洋、教育科研、动漫渲染、超算平台等)、平安城市视频监控/交通卡口、超高清视频制作/媒资库、运营商IPTV等。
·更适合用软硬件一体的行业场景:政务云;运营商BOM域云化、5G电信云;金融网银、手机银行、前置系统Web应用、票据影像等;大数据分析(政务、运营商、平安城市、金融等)以及各行业备份归档系统。以中国移动为例,早年大量购买分布式存储软件,搭配集采的标准服务器使用。近两年,不管是分布式块还是文件的集采,都已经全面转向软硬件一体模式。
·可以解耦的行业场景:各行业开发测试、桌面云。这部分场景数据的重要性略低于生产场景,IT预算紧张的用户,可以尝试。当然,预算足够的用户可以更加稳妥。
无论如何波折,分布式存储未来可期

正所谓不管白猫、黑猫,抓到老鼠的就是好猫。我们相信在较长一段时间内,分布式存储软硬件一体和软硬件解耦会长期共存。总体而言,笔者认为随着数据价值的增高,场景对数据可靠性的要求随之会越来越严苛,市场的天平就会更多偏向软硬件一体;与此相反,场景对数据可靠性的敏感度越低、短期成本敏感度越高,市场的天平就会更多的偏向软硬件解耦。
分布式存储的发展历程无论如何波折,我们更愿意相信它最终会是部正剧,在整个存储市场中占据海量数据承载的主力军位置,铿锵而立,并给人以无穷回味!
计算机分类和计算机硬件技术发展状况
按微处理器(CPU)字长分类按微处理器字长来分,微型计算机一般分为4位、8位、16位、32位和64位机几种。 (1)4位微型计算机;用4位字长的微处理器为CPU,其数据总线宽度为4位,一个字节数据要分两次来传送或处理。 4位机的指令系统简单、运算功能单一,主要用于袖珍或台式计算器、家电、娱乐产品和简单的过程控制,是微型机的低级阶段。 (2)8位微型计算机:用8位字长的微处理器作CPU,其数据总线宽度为8位。 8位机中字长和字节是同一个概念。 8位微处理器推出时,微型机在硬件和软件技术方面都已比较成熟,所以8位机的指令系统比较完善,寻址能力强,外围配套电路齐全,因而使8位机通用性强,应用宽广,广泛用于事务管理、工业生产过程的自动检测和控制、通信、智能终端、教育以及家用电器控制等领域。 (3)16位微机:用高性能的16位微处理器作CPU,数据总线宽度为16位。 由于16位微处理器不仅在集成度和处理速度、数据总线宽度、内部结构等方面比8位机有本质上的不同,由它们构成的微型机在功能和性能上已基本达到了当时的中档小型机的水平,特别是以Intel 8086为CPU的16位微型机IBM PC/XT不仅是当时相当一段时间内的主流机型,而量其用户拥有量也是世界第一,以至在设计更高档次的微机时,都要保持对他的兼容。 16位机除原有的应用领域外,还在计算机网络中扮演了重要角色。 (4)32位微机:32位微机使用32位的微处理器作CPU,这是目前的主流机型。 从应用角度看,字长32位是较理想的,它可满足了绝大部分用途的需要,包括文字、图形、表格处理及精密科学计算等多方面的需要。 典型产品有Intel ,Intel ,MC,MC、Z-等。 特别是1993年Intel公司推出Pentium微处理器之后,使32位微处理器技术进入一个崭新阶段。 他不仅继承了其前辈的所有优点而且在许多方面有新的突破,同时也满足了人们对图形图像、实时视频处理、语言识别、大流量客户机/服务器应用等应用领域日益迫切的需求。 (5)64位微机:64位微机使用64位的微处理器作CPU,这是目前的各个计算机领军公司争相开发的最新产品。 其实高档微处理器早就有了64位字长的产品。 只是价格过高,不适合微型计算机使用,通常用在工作站或服务器上。 现在,是到了64位微处理器进入微型计算机领域的时机了。 估计Intel公司和HP公司会在2003年推出他们合作研制的第一款用于微型机的64位微处理器。 相信64位微处理器会将微型计算机推向一个新的阶段。 计算机的历史 现代计算机的诞生和发展 现代计算机问世之前,计算机的发展经历了机械式计算机、机电式计算机和萌芽期的电子计算机三个阶段。 早在17世纪,欧洲一批数学家就已开始设计和制造以数字形式进行基本运算的数字计算机。 1642年,法国数学家帕斯卡采用与钟表类似的齿轮传动装置,制成了最早的十进制加法器。 1678年,德国数学家莱布尼兹制成的计算机,进一步解决了十进制数的乘、除运算。 英国数学家巴贝奇在1822年制作差分机模型时提出一个设想,每次完成一次算术运算将发展为自动完成某个特定的完整运算过程。 1884年,巴贝奇设计了一种程序控制的通用分析机。 这台分析机虽然已经描绘出有关程序控制方式计算机的雏型,但限于当时的技术条件而未能实现。 巴贝奇的设想提出以后的一百多年期间,电磁学、电工学、电子学不断取得重大进展,在元件、器件方面接连发明了真空二极管和真空三极管;在系统技术方面,相继发明了无线电报、电视和雷达……。 所有这些成就为现代计算机的发展准备了技术和物质条件。 与此同时,数学、物理也相应地蓬勃发展。 到了20世纪30年代,物理学的各个领域经历着定量化的阶段,描述各种物理过程的数学方程,其中有的用经典的分析方法已根难解决。 于是,数值分析受到了重视,研究出各种数值积分,数值微分,以及微分方程数值解法,把计算过程归结为巨量的基本运算,从而奠定了现代计算机的数值算法基础。 社会上对先进计算工具多方面迫切的需要,是促使现代计算机诞生的根本动力。 20世纪以后,各个科学领域和技术部门的计算困难堆积如山,已经阻碍了学科的继续发展。 特别是第二次世界大战爆发前后,军事科学技术对高速计算工具的需要尤为迫切。 在此期间,德国、美国、英国部在进行计算机的开拓工作,几乎同时开始了机电式计算机和电子计算机的研究。 德国的朱赛最先采用电气元件制造计算机。 他在1941年制成的全自动继电器计算机Z-3,已具备浮点记数、二进制运算、数字存储地址的指令形式等现代计算机的特征。 在美国,1940~1947年期间也相继制成了继电器计算机MARK-1、MARK-2、model-1、Model-5等。 不过,继电器的开关速度大约为百分之一秒,使计算机的运算速度受到很大限制。 电子计算机的开拓过程,经历了从制作部件到整机从专用机到通用机、从“外加式程序”到“存储程序”的演变。 1938年,美籍保加利亚学者阿塔纳索夫首先制成了电子计算机的运算部件。 1943年,英国外交部通信处制成了“巨人”电子计算机。 这是一种专用的密码分析机,在第二次世界大战中得到了应用。 1946年2月美国宾夕法尼亚大学莫尔学院制成的大型电子数字积分计算机(ENIAC),最初也专门用于火炮弹道计算,后经多次改进而成为能进行各种科学计算的通用计算机。 这台完全采用电子线路执行算术运算、逻辑运算和信息存储的计算机,运算速度比继电器计算机快1000倍。 这就是人们常常提到的世界上第一台电子计算机。 但是,这种计算机的程序仍然是外加式的,存储容量也太小,尚未完全具备现代计算机的主要特征。 新的重大突破是由数学家冯·诺伊曼领导的设计小组完成的。 1945年3月他们发表了一个全新的存储程序式通用电子计算机方案—电子离散变量自动计算机(EDVAC)。 随后于1946年6月,冯·诺伊曼等人提出了更为完善的设计报告《电子计算机装置逻辑结构初探》。 同年7~8月间,他们又在莫尔学院为美国和英国二十多个机构的专家讲授了专门课程《电子计算机设计的理论和技术》,推动了存储程序式计算机的设计与制造。 1949年,英国剑桥大学数学实验室率先制成电子离散时序自动计算机(EDSAC);美国则于1950年制成了东部标准自动计算机(SFAC)等。 至此,电子计算机发展的萌芽时期遂告结束,开始了现代计算机的发展时期。 在创制数字计算机的同时,还研制了另一类重要的计算工具——模拟计算机。 物理学家在总结自然规律时,常用数学方程描述某一过程;相反,解数学方程的过程,也有可能采用物理过程模拟方法,对数发明以后,1620年制成的计算尺,己把乘法、除法化为加法、减法进行计算。 麦克斯韦巧妙地把积分(面积)的计算转变为长度的测量,于1855年制成了积分仪。 19世纪数学物理的另一项重大成就——傅里叶分析,对模拟机的发展起到了直接的推动作用。 19世纪后期和20世纪前期,相继制成了多种计算傅里叶系数的分析机和解微分方程的微分分析机等。 但是当试图推广微分分析机解偏微分方程和用模拟机解决一般科学计算问题时,人们逐渐认识到模拟机在通用性和精确度等方面的局限性,并将主要精力转向了数字计算机。 电子数字计算机问世以后,模拟计算机仍然继续有所发展,并且与数字计算机相结合而产生了混合式计算机。 模拟机和混合机已发展成为现代计算机的特殊品种,即用在特定领域的高效信息处理工具或仿真工具。 20世纪中期以来,计算机一直处于高速度发展时期,计算机由仅包含硬件发展到包含硬件、软件和固件三类子系统的计算机系统。 计算机系统的性能—价格比,平均每10年提高两个数量级。 计算机种类也一再分化,发展成微型计算机、小型计算机、通用计算机(包括巨型、大型和中型计算机),以及各种专用机(如各种控制计算机、模拟—数字混合计算机)等。 计算机器件从电子管到晶体管,再从分立元件到集成电路以至微处理器,促使计算机的发展出现了三次飞跃。 在电子管计算机时期(1946~1959),计算机主要用于科学计算。 主存储器是决定计算机技术面貌的主要因素。 当时,主存储器有水银延迟线存储器、阴极射线示波管静电存储器、磁鼓和磁心存储器等类型,通常按此对计算机进行分类。 到了晶体管计算机时期(1959~1964),主存储器均采用磁心存储器,磁鼓和磁盘开始用作主要的辅助存储器。 不仅科学计算用计算机继续发展,而且中、小型计算机,特别是廉价的小型数据处理用计算机开始大量生产。 1964年,在集成电路计算机发展的同时,计算机也进入了产品系列化的发展时期。 半导体存储器逐步取代了磁心存储器的主存储器地位,磁盘成了不可缺少的辅助存储器,并且开始普遍采用虚拟存储技术。 随着各种半导体只读存储器和可改写的只读存储器的迅速发展,以及微程序技术的发展和应用,计算机系统中开始出现固件子系统。 20世纪70年代以后,计算机用集成电路的集成度迅速从中小规模发展到大规模、超大规模的水平,微处理器和微型计算机应运而生,各类计算机的性能迅速提高。 随着字长4位、8位、16位、32位和64位的微型计算机相继问世和广泛应用,对小型计算机、通用计算机和专用计算机的需求量也相应增长了。 微型计算机在社会上大量应用后,一座办公楼、一所学校、一个仓库常常拥有数十台以至数百台计算机。 实现它们互连的局部网随即兴起,进一步推动了计算机应用系统从集中式系统向分布式系统的发展。 在电子管计算机时期,一些计算机配置了汇编语言和子程序库,科学计算用的高级语言FORTRAN初露头角。 在晶体管计算机阶段,事务处理的COBOL语言、科学计算机用的ALGOL语言,和符号处理用的LISP等高级语言开始进入实用阶段。 操作系统初步成型,使计算机的使用方式由手工操作改变为自动作业管理。 进入集成电路计算机发展时期以后,在计算机中形成了相当规模的软件子系统,高级语言种类进一步增加,操作系统日趋完善,具备批量处理、分时处理、实时处理等多种功能。 数据库管理系统、通信处理程序、网络软件等也不断增添到软件子系统中。 软件子系统的功能不断增强,明显地改变了计算机的使用属性,使用效率显著提高。 在现代计算机中,外围设备的价值一般已超过计算机硬件子系统的一半以上,其技术水平在很大程度上决定着计算机的技术面貌。 外围设备技术的综合性很强,既依赖于电子学、机械学、光学、磁学等多门学科知识的综合,又取决于精密机械工艺、电气和电子加工工艺以及计量的技术和工艺水平等。 外围设备包括辅助存储器和输入输出设备两大类。 辅助存储器包括磁盘、磁鼓、磁带、激光存储器、海量存储器和缩微存储器等;输入输出设备又分为输入、输出、转换、、模式信息处理设备和终端设备。 在这些品种繁多的设备中,对计算机技术面貌影响最大的是磁盘、终端设备、模式信息处理设备和转换设备等。 新一代计算机是把信息采集存储处理、通信和人工智能结合在一起的智能计算机系统。 它不仅能进行一般信息处理,而且能面向知识处理,具有形式化推理、联想、学习和解释的能力,将能帮助人类开拓未知的领域和获得新的知识。
如何实现win和linux之间oracle数据库的架构
RAC(Real Application Cluster,真正应用集群)是Oracle9i数据库中采用的一项新技术,也是Oracle数据库支持网格计算环境的核心技术。 它的出现解决了传统数据库应用中面临的一个重要问题:高性能、高可伸缩性与低价格之间的矛盾。 过去,如果企业希望其信息系统具有良好的可靠性、可伸缩性和高性能,就必须选择基于主机的系统,这意味着企业在系统建设之初就必须投入大量资金;如果要节省成本,企业可以选择基于客户机/服务器的计算体系,并在需要时逐步增添新硬件、扩展系统,但如果需要进行应用升级,企业就不得不付出高昂的升级费用,同时这种分布式系统的维护成本也不菲。 采用RAC技术,用户就有了更多的选择,无论是选择基于Intel架构的PC服务器、Unix工作站,还是最近两年颇受关注的刀片服务器;也无论是选择Unix、Windows,还是Linux操作系统,只要在这些软硬件平台上部署了Oracle9i的RAC系统,这些分布在各处的系统就能组成集群,实现用户所需的高性能和高可靠性。 且当系统需要进一步扩展时,无需对应用程序进行任何修改。 “这就是基于网格计算环境的数据库,也是数据库技术的未来发展方向。 ”Oracle公司负责数据库业务的高级副总裁Andy Mendelsohn先生说。 为什么Oracle的RAC技术能够实现以上目标?因为RAC技术采用了“sharing everything”的实现模式。 据Oracle公司技术专家介绍,RAC技术通过CPU共享和存储设备共享来实现多节点之间的无缝集群,用户提交的每一项任务被自动分配给集群中的多台机器执行,用户不必通过冗余的硬件来满足高可靠性要求。 另一方面,RAC可以实现CPU的共享,即使普通服务器组成的集群也能实现过去只有大型主机才能提供的高性能,这也是Intel、Dell等公司非常愿意与Oracle合作、共拓高端市场的原因。 除了RAC技术,Oracle9i数据库还提供其他功能来支持网格计算,包括支持在数据库之间进行数据快速复制的Transportable Tablespaces、支持数据流更新的Oracle Streams、支持应用可移植性的One Portable Codebase等。 Mendelsohn认为,对那些需要建立数据中心的企业来说,Oracle9i RAC加上刀片服务器和Linux操作系统,就完全能够替代传统的基于大型机的数据系统。
比特币到底是什么东西?
比特币是一种可以轻松存储和传输的加密文件,是一种加密货币,它是第一种也是最大的加密货币。 2010年5月22日,程序员LaszloHanyecz,用比特币购买了2份比萨。 当时1比特币价值约为0.003美分。 通过币爱交易平台查询到今天价格为7千多美元。 在短短7年翻了几十万倍,都说物以稀为贵么。
发表评论