探索服务器管理实验-你准备好应对挑战了吗 (服务器探测)

技术教程 2025-04-19 00:38:36 浏览
你准备好应对挑战了吗

服务器 管理实验

一、 DNS服务器配置与管理 实验

实验目的

通过本实验的学习,使学生了解并掌握DNS服务器配置与管理的相关知识,训练学生的实际动手能力,为今后继续在计算机组网的学习奠定基础。

本实验涉及了计算机网络应用层DNS协议的知识点,根据本实验的特点、要求和具体条件,采用以集中讲解,然后学生自主训练为主的开放模式组织教学形式。

实验基本原理和方法

3.1 DNS简介

DNS:是域名系统(Domain Name System)的缩写,指在Internet中使用的分配名字和地址的机制,域名系统允许用户使用友好的名字而不是难以记忆的数字——IP地址来访问Internet上的主机。

3.2 域名解析

域名解析:就是将用户提出的名字变换成网络地址的方法和过程,从概念上讲,域名解析是一个自上而下的过程。

4. 实验主要仪器设备和材料及其基本工作原理

安装有Windows Server 2003的计算机及系统安装光盘

实验方法、步骤及结果测试

5.1 域名服务器的安装

右击桌面上的网上邻居——属性——打开Internet协议(TCP/IP)属性

5.2 DNS服务器的配置

添加DNS服务 :进入“开始”菜单,选择“控制面板”,点击“添加或删除程序”,在弹出的窗口中选择“添加/删除Windows组件”,勾选“网络服务”中的“DNS服务器”进行安装。

配置DNS区域 :安装完成后,打开“DNS管理控制台”,右键单击对应的DNS服务器,选择“新建区域”,按照向导完成主要区域的创建。

添加主机记录 :在相应的区域内右键单击,选择“新建主机”,输入主机名和对应的IP地址。

实验结果测试

测试DNS解析 :打开命令提示符,使用nslookup命令测试域名解析是否正确。

二、 IIS服务器的配置与管理 实验

实验目的

正确理解服务的运行机制,了解常用的Web服务器软件,掌握IIS服务器的安装和基本管理。

利用IIS在一台服务器上运行多个网站,掌握虚拟机主机和虚拟目录的创建删除。

实验准备

Windows操作系统(建议使用Windows Server系列)

IIS管理器

Internet Explorer浏览器用于测试

实验任务

3.1 IIS服务器的安装与配置

安装IIS :打开控制面板,选择“程序和功能”,点击“启用或关闭Windows功能”,勾选“Internet信息服务”进行安装。

创建网站 :打开IIS管理器,右键单击左侧的“网站”,选择“添加网站”,按照向导输入站点名称、物理路径和绑定信息。

配置多站点 :通过修改绑定设置,配置多个IP地址或不同的端口号来实现多站点。

创建虚拟目录 :在IIS管理器中,右击已创建的网站,选择“添加虚拟目录”,按照向导完成配置。

3.2 安全设置与管理

设置IP地址与域名限制 :在网站属性对话框中选择“目录安全性”选项卡,编辑IP地址与域名限制。

用户验证 :选择“集成Windows身份验证”、“基本身份验证”等方式。

NTFS权限设置 :设置文件夹和文件的读取、写入权限。

DNS服务器配置与管理 ASP安全设置 :禁用不必要的ASP组件如Shell.Application、WScript.Shell等。

3.3 高级配置与管理

备份与恢复 :定期备份网站数据,确保数据安全。

日志管理 :配置IIS日志记录,监控网站访问情况。

性能优化 :通过调整应用程序池和网站设置,提高服务器性能。

NFS服务器配置文件路径找回

三、相关问题与解答栏目

1. 如何更改IIS服务器默认网站的端口号?

答:要更改IIS服务器默认网站的端口号,可以按照以下步骤操作:

打开IIS管理器,选择左侧的“网站”。

在右侧找到并点击默认网站的名称,然后在中间窗格中双击“绑定…”图标。

在弹出的“网站绑定”窗口中,选中当前条目并点击“编辑…”。

在“编辑网站绑定”对话框中,将“端口”一栏中的数值改为你想要的新端口号(例如8080),然后点击“确定”。

返回到IIS管理器,刷新配置以确保更改生效,当你访问该网站时,需要在URL后加上新的端口号(例如)。

2. 如果忘记了NFS服务器配置文件/etc/exports的路径怎么办?

答:如果你忘记了NFS服务器配置文件 /etc/exports 的具体路径,可以通过以下几种方法找回:

检查常见位置 :通常情况下,NFS服务器的配置文件位于 /etc/exports ,你可以直接查看这个位置是否存在该文件。

使用find命令搜索 :如果不确定文件位置,可以使用命令在整个文件系统中搜索,打开终端并输入以下命令: sudo find / -name exports ,这将从根目录开始搜索名为的文件,注意这可能需要一些时间来完成,具体取决于你的文件系统大小。

查阅文档或帮助 :大多数Linux发行版的官方文档或在线帮助页面都会提到NFS配置文件的位置,你可以查阅这些资源以获取准确的信息。

小伙伴们,上文介绍了“ 服务器管理实验 ”的内容,你了解清楚吗?希望对你有所帮助,任何问题可以给我留言,让我们下期再见吧。


R 和 Python 用于统计学分析,哪个更好

2012年的时候我们说R是学术界的主流,但是现在Python正在慢慢取代R在学术界的地位。 不知道是不是因为大数据时代的到来。 Python与R相比速度要快。 Python可以直接处理上G的数据;R不行,R分析数据时需要先通过数据库把大数据转化为小数据(通过groupby)才能交给R做分析,因此R不可能直接分析行为详单,只能分析统计结果。 所以有人说:Python=R+SQL/Hive,并不是没有道理的。 Python的一个最明显的优势在于其胶水语言的特性,很多书里也都会提到这一点,一些底层用C写的算法封装在Python包里后性能非常高效(Python的数据挖掘包Orange canve 中的决策树分析50万用户10秒出结果,用R几个小时也出不来,8G内存全部占满)。 但是,凡事都不绝对,如果R矢量化编程做得好的话(有点小难度),会使R的速度和程序的长度都有显著性提升。 R的优势在于有包罗万象的统计函数可以调用,特别是在时间序列分析方面,无论是经典还是前沿的方法都有相应的包直接使用。 相比之下,Python之前在这方面贫乏不少。 但是,现在Python有了pandas。 pandas提供了一组标准的时间序列处理工具和数据算法。 因此,你可以高效处理非常大的时间序列,轻松地进行切片/切块、聚合、对定期/不定期的时间序列进行重采样等。 可能你已经猜到了,这些工具中大部分都对金融和经济数据尤为有用,但你当然也可以用它们来分析服务器日志数据。 于是,近年来,由于Python有不断改良的库(主要是pandas),使其成为数据处理任务的一大替代方案。 做过几个实验:1. 用python实现了一个统计方法,其中用到了ctypes,multiprocess。 之后一个项目要做方法比较,又用回R,发现一些bioconductor上的包已经默认用parallel了。 (但那个包还是很慢,一下子把所有线程都用掉了,导致整个电脑使用不能,看网页非常卡~)2. 用python pandas做了一些数据整理工作,类似数据库,两三个表来回查、匹配。 感觉还是很方便的。 虽然这些工作R也能做,但估计会慢点,毕竟几十万行的条目了。 3. 用python matplotlib画图。 pyplot作图的方式和R差异很大,R是一条命令画点东西,pylot是准备好了以后一起出来。 pyplot的颜色选择有点尴尬,默认颜色比较少,之后可用html的颜色,但是名字太长了~。 pyplot 的legend比R 好用多了,算是半自动化了。 pyplot画出来后可以自由拉升缩放,然后再保存为图片,这点比R好用。 总的来说Python是一套比较平衡的语言,各方面都可以,无论是对其他语言的调用,和数据源的连接、读取,对系统的操作,还是正则表达和文字处理,Python都有着明显优势。 而R是在统计方面比较突出。 但是数据分析其实不仅仅是统计,前期的数据收集,数据处理,数据抽样,数据聚类,以及比较复杂的数据挖掘算法,数据建模等等这些任务,只要是100M以上的数据,R都很难胜任,但是Python却基本胜任。 结合其在通用编程方面的强大实力,我们完全可以只使用Python这一种语言去构建以数据为中心的应用程序。 但世上本没有最好的软件或程序,也鲜有人能把单一语言挖掘运用到极致。 尤其是很多人早先学了R,现在完全不用又舍不得,所以对于想要学以致用的人来说,如果能把R和Python相结合,就更好不过了,很早看过一篇文章——让R与Python共舞,咱们坛子里有原帖,就不多说了,看完会有更多启发。

db是什么意思,在地震资料处理中代表什么意思?

P2P是peer-to-peer的缩写,peer在英语里有(地位、能力等)同等者、同事和伙伴等意义。 这样一来,P2P也就可以理解为伙伴对伙伴的意思,或称为对等联网。 目前人们认为其在加强网络上人的交流、文件交换、分布计算等方面大有前途。 P2P还是point to point 点对点下载的意思,它是下载术语,意思是在你自己下载的同时,自己的电脑还要继续做主机上传,这种下载方式,人越多速度越快,但缺点是对你的硬盘损伤比较大(在写的同时还要读),还有就是对你内存占用较多,影响整机速度!简单的说,P2P直接将人们联系起来,让人们通过互联网直接交互。 P2P使得网络上的沟通变得容易、更直接共享和交互,真正地消除中间商。 P2P就是人可以直接连接到其他用户的计算机、交换文件,而不是像过去那样连接到服务器去浏览与下载。 P2P另一个重要特点是改变互联网现在的以大网站为中心的状态、重返非中心化,并把权力交还给用户。 P2P看起来似乎很新,但是正如B2C、B2B是将现实世界中很平常的东西移植到互联网上一样,P2P并不是什么新东西。 在现实生活中我们每天都按照P2P模式面对面地或者通过电话交流和沟通。 即使从网络看,P2P也不是新概念,P2P是互联网整体架构的基础。 互联网最基本的协议TCP/IP并没有客户机和服务器的概念,所有的设备都是通讯的平等的一端。 在十年之前,所有的互联网上的系统都同时具有服务器和客户机的功能。 当然,后来发展的那些架构在TCP/IP之上的软件的确采用了客户机/服务器的结构:浏览器和Web服务器,邮件客户端和邮件服务器。 但是,对于服务器来说,它们之间仍然是对等联网的。 以eMail为例,互联网上并没有一个巨大的、唯一的邮件服务器来处理所有的email,而是对等联网的邮件服务器相互协作把email传送到相应的服务器上去。 另外用户之间email则一直对等的联络渠道。 事实上,网络上现有的许多服务可以归入P2P的行列。 即时讯息系统譬如ICQ、AOL Instant Messenger、Yahoo Pager、微软的MSN Messenger以及国内的QQ是最流行的P2P应用。 它们允许用户互相沟通和交换信息、交换文件。 用户之间的信息交流不是直接的,需要有位于中心的服务器来协调。 但这些系统并没有诸如搜索这种对于大量信息共享非常重要的功能,这个特征的缺乏可能正为什么即时讯息出现很久但是并没有能够产生如Napster这样的影响的原因之一。 下面试图用三句话来揭示P2P的影响: 对等联网:是只读的网络的终结(Peer-to-peer is the end of the read-only Web) 对等联网:使你重新参与互联网(Peer-to-peer allows you to participate in the Internet again) 对等联网:使网络远离电视(Peer-to-peer steering the Internet away from TV)如上文所言,P2P不是一个新思想,从某些角度看它甚至是整个最初创建互联网的最基本的思想。 我们不妨花时间作一点回顾。 [编辑本段]现在在业界,比较认同的P2P计算应用系统的目标主要有以下几类:1.信息、服务的共享与管理2.协作3.构建充当基层架构的互联系统P2P,即person to person. [编辑本段]分类依中央化程度纯P2P:* 节点同时作为客户端和服务器端。 * 没有中心服务器。 * 没有中心路由器。 * 如Gnutella。 杂P2P:* 有一个中心服务器保存节点的信息并对请求这些信息的要求做出响应。 * 节点负责发布这些信息(因为中心服务器并不保存文件),让中心服务器知道它们想共享什么文件,让需要它的节点下载其可共享的资源。 * 路由终端使用地址,通过被一组索引引用来取得绝对地址。 * 如最原始的Napster。 混合P2P:* 同时含有纯P2P和杂P2P的特点。 * 如Skype。 依网路拓扑结构结构P2P:* 点对点之间互有连结资讯,彼此形成特定规则拓扑结构。 * 需要请求某资源时,依该拓扑结构规则寻找,若存在则一定找得到。 * 如Chord、CAN。 无结构P2P:* 点对点之间互有连结资讯,彼此形成无规则网状拓扑结构。 * 需要请求某资源点时,以广播方式寻找,通常会设TTL,即使存在也不一定找得到。 * 如Gnutella。 松散结构P2P:* 点对点之间互有连结资讯,彼此形成无规则网状拓扑结构。 * 需要请求某资源时,依现有资讯推测寻找,介於结构P2P和无结构P2P之间。 * 如Freenet。 [编辑本段]生机勃勃——窥探P2P的发展历程如果说涉及此种特点便称之为信息技术中的P2P的诞生,那么它的历史这可就远了。 P2P 本身的基本技术的存在时间和我们曾经熟悉的USENET、FidoNet 这两种非常成功的分布式对等网络技术几乎是一同的,甚至更长些。 翻翻资料就可以知道,USENET 产生于 1979 年,FidoNet创建1984年,它们都是一个分散、分布的信息交换系统。 在最初的 P2P 应用出现时,许多使用该技术的人们甚至不会使用计算机。 然而正是这种孕育着思想的网络技术为P2P的出现搭建了摇篮。 P2P正式步入发展的历史可以追溯到1997年7月,那几乎就是互联网在中国起步的阶段。 在一段介绍此时P2P技术的时间表中这样写着:“Hotline Communications is founded, giving consumers software that lets them offer files for download from their own computers.”(1997年7月,Hotline Communications公司成立,并且研制了一种可以使其用户从别人电脑中直接下载东西的软件) 说到P2P,就不能不提BT,这个被人戏称为“变态”的词几乎在大多数人感觉中与P2P成了对等的一组概念,而它也将P2P技术发展到了近乎完美的地步。 实际上BitTorrent(中文全称比特流,简称BT)原先是指是一个多点下载的P2P软件。 它不象FTP那样只有一个发送源,BT有多个发送点,当你在下载时,同时也在上传,使大家都处在同步传送的状态。 应该说,BT是当今P2P最为成功的一个应用。 如果解释一下的话,BT首先在上传者端把一个文件分成了多个部分,客户端甲在服务器随机下载了第N部分,客户端乙在服务器随机下载了第M部分。 这样甲的BT就会根据情况到乙的电脑上去拿乙已经下载好的第M部分,乙的BT就会根据情况去到甲的电脑上去拿甲已经下载好的第N部分。 有一句话可以作为BT最为形象的解释就是:“我为人人,人人为我”。 而最初听到此概念时,有人对我说,别用BT,会坏你的硬盘的!大概指的就是前一句。 现在看来,没有贡献怎么会有获取?这大概最可以概括BT下载传输的精髓。 工具软件BTJoy,将这一技术以软件的形式完美起来,这个诞生仅有一年的软件已经迅速热遍了整个网络——对于BT下载的爱好者来说,120G的硬盘都可以被迅速塞满!我的同学在不长的时间里竟然用他的刻录机完成了一百来部的电视剧的保存,拿他的话来说,可以开一个小店面了!除了BT下载,另外一种下载方式就是利用Usenet上的资源。 有人把他理解成p2p,其实并不正确。 这种下载方式在国内并不为人所知,但在国外非常流行。 主要原因是Usenet上的资源大多数是英文的或者其他语言,所以要求用户具有一定的英文水平。 Usenet上的资源可以说是全球性的,而且下载速度极快,IP匿名,因此在西方国家是最受欢迎的网络下载工具。 在新浪上可以下载到Usenet的工具,是非常好用的一款Usenet软件。 [编辑本段]P2P原理与技术: P2P原理与技术 Firewall 因特网洲际主干 洲际主干 ISP 消费者用户 第三方内容 Web 服务器 应用服务器 因特网主干 地区网络 企业网提供商 ISP 专业提供商 本地 ISP T1 社团用户 社团网络 数据库 Slide source:Slide source:消费者用户 Peer Peer Peer Peer 李之棠华中科技大学计算机学院 CERNET华中地区网络中心P2P原理与技术: P2P原理与技术 概述分类构件与算法关键技术特性 P2P分析与比较研究与未来P2P 平台环境: P2P 平台环境 P2P平台由Internet、Intranet和Ad-hoc网构成从拨号线到宽带都可支持P2P 当前结构多是个人家庭主机、单位桌面机和个人移动计算机(便携和手持)历史与现状早期P2P系统多用家庭机进行内容共享,Napster,Gnutella Aimster 分布式计算多基于桌面机,SETI@home Ad-hoc手持网络最近可用,专于协同计算,如Endeavors, Technologies Magi。 发展:更大的场景单位桌面机支持内容共享、IDC与手持机资源聚合、NGI/Inernet2 支持P2P系统和应用4 P2P关键技术特性: 4 P2P关键技术特性 4.1 非集中化:置疑 C/S 模式集中化在访问权限和安全上容易管理但不可避免导致:低效/瓶颈/资源浪费尽管硬件性能和成本有了改进,但建立和维护集中化知识库成本高昂,需要人员智能化地建立,保持信息的相关和更新非集中化:更强有力的思想强调用户端所有权,对数据和资源的控制每个Peer都是平等的参与者实现更困难(无全局服务器,看不到全局Peers及其文件) 这也是当前混合模式存在的原因Slide57: 全非集中化文件系统(Gnutella Freenet) 发现网络是很困难的新节点必须知道其他节点或由主机列表知道其他Peers的IP地址该节点通过和现行网络中至少一个Peer建立连接而加入网络从而能发现其他Peers并Cache它们的IP地址在本地 各种P2P系统按非集中化程度分类 4.2 可扩展性: 4.2 可扩展性 可扩展性受限的主要原因需要完成大量的集中化操作:如同步与一致需要维护许多状态固有的并行性应用展开用来表示计算的编程模式 P2P解决可扩展性问题 Napster在其服务的高峰用户达到 600万然SETI@hone2002年止用户 仅接近350万.因为它集中在并行度有限的任务上,依靠因特网上的可用计算力来分析从天文望远镜收集来的数据,搜索外星生命 Avaki通过提供分布式对象模型来解决可扩展性问题在网络连接模式中,除对等网外,还有另一种形式的网络,即客户机/服务器网,Client/Server。 在客户机/服务器网络中,服务器是网络的核心,而客户机是网络的基础,客户机依靠服务器获得所需要的网络资源,而服务器为客户机提供网络必须的资源。 这里客户和服务器都是指通信中所涉及的两个应用进程(软件)。 使用计算机的人是计算机的“用户”(user)而不是“客户”(client)。 但在许多国外文献中,也经常把运行客户程序的机器称为client(这种情况下也可把client译为“客户机”),把运行服务器程序的机器称为server。 所以有时要根据上下文判断client与server是指软件还是硬件。 它是软件系统体系结构,通过它可以充分利用两端硬件环境的优势,将任务合理分配到 Client端和Server端来实现,降低了系统的通讯开销。 目前大多数应用软件系统都是Client/Server形式的两层结构,由于现在的软件应用系统正在向分布式的Web应用发展,Web和Client/Server 应用都可以进行同样的业务处理,应用不同的模块共享逻辑组件;因此,内部的和外部的用户都可以访问新的和现有的应用系统,通过现有应用系统中的逻辑可以扩展出新的应用系统。 这也就是目前应用系统的发展方向。 一、C/S结构的优点C/S结构的优点是能充分发挥客户端PC的处理能力,很多工作可以在客户端处理后再提交给服务器。 对应的优点就是客户端响应速度快。 缺点主要有以下几个:而随着互联网的飞速发展,移动办公和分布式办公越来越普及,这需要我们的系统具有扩展性。 这种方式远程访问需要专门的技术,同时要对系统进行专门的设计来处理分布式的数据。 客户端需要安装专用的客户端软件。 首先涉及到安装的工作量,其次任何一台电脑出问题,如病毒、硬件损坏,都需要进行安装或维护。 特别是有很多分部或专卖店的情况,不是工作量的问题,而是路程的问题。 还有,系统软件升级时,每一台客户机需要重新安装,其维护和升级成本非常高。 对客户端的操作系统一般也会有限制。 可能适应于Win98, 但不能用于win2000或Windows XP。 或者不适用于微软新的操作系统等等,更不用说Linux、Unix等。 二、、C/S架构软件的优势与劣势 (1)、应用服务器运行数据负荷较轻。 最简单的C/S体系结构的数据库应用由两部分组成,即客户应用程序和数据库服务器程序。 二者可分别称为前台程序与后台程序。 运行数据库服务器程序的机器,也称为应用服务器。 一旦服务器程序被启动,就随时等待响应客户程序发来的请求;客户应用程序运行在用户自己的电脑上,对应于数据库服务器,可称为客户电脑,当需要对数据库中的数据进行任何操作时,客户程序就自动地寻找服务器程序,并向其发出请求,服务器程序根据预定的规则作出应答,送回结果,应用服务器运行数据负荷较轻。 (2)、数据的储存管理功能较为透明。 在数据库应用中,数据的储存管理功能,是由服务器程序和客户应用程序分别独立进行的,前台应用可以违反的规则,并且通常把那些不同的(不管是已知还是未知的)运行数据,在服务器程序中不集中实现,例如访问者的权限,编号可以重复、必须有客户才能建立定单这样的规则。 所有这些,对于工作在前台程序上的最终用户,是“透明”的,他们无须过问(通常也无法干涉)背后的过程,就可以完成自己的一切工作。 在客户服务器架构的应用中,前台程序不是非常“瘦小”,麻烦的事情都交给了服务器和网络。 在C/S体系的下,数据库不能真正成为公共、专业化的仓库,它受到独立的专门管理。 (3)、C/S架构的劣势是高昂的维护成本且投资大。 首先,采用C/S架构,要选择适当的数据库平台来实现数据库数据的真正“统一”,使分布于两地的数据同步完全交由数据库系统去管理,但逻辑上两地的操作者要直接访问同一个数据库才能有效实现,有这样一些问题,如果需要建立“实时”的数据同步,就必须在两地间建立实时的通讯连接,保持两地的数据库服务器在线运行,网络管理工作人员既要对服务器维护管理,又要对客户端维护和管理,这需要高昂的投资和复杂的技术支持,维护成本很高,维护任务量大。 其次,传统的C/S结构的软件需要针对不同的操作系统系统开发不同版本的软件,由于产品的更新换代十分快,代价高和低效率已经不适应工作需要。 在JAVA这样的跨平台语言出现之后,B/S架构更是猛烈冲击C/S,并对其形成威胁和挑战。 三、C/S、B/S结构软件技术上的比较C/S结构软件(即客户机/服务器模式)分为客户机和服务器两层,客户机不是毫无运算能力的输入、输出设备,而是具有了一定的数据处理和数据存储能力,通过把应用软件的计算和数据合理地分配在客户机和服务器两端,可以有效地降低网络通信量和服务器运算量。 由于服务器连接个数和数据通信量的限制,这种结构的软件适于在用户数目不多的局域网内使用。 国内目前的大部分ERP(财务)软件产品即属于此类结构。 B/S(浏览器/服务器模式)是随着Internet技术的兴起,对C/S结构的一种改进。 在这种结构下,软件应用的业务逻辑完全在应用服务器端实现,用户表现完全在Web服务器实现,客户端只需要浏览器即可进行业务处理,是一种全新的软件系统构造技术。 这种结构更成为当今应用软件的首选体系结构。 e通管理系列产品即属于此类结构。 1,数据安全性比较。 由于C/S结构软件的数据分布特性,客户端所发生的火灾、盗抢、地震、病毒、黑客等都成了可怕的数据杀手。 另外,对于集团级的异地软件应用,C/S结构的软件必须在各地安装多个服务器,并在多个服务器之间进行数据同步。 如此一来,每个数据点上的数据安全都影响了整个应用的数据安全。 所以,对于集团级的大型应用来讲,C/S结构软件的安全性是令人无法接受的。 对于B/S结构的软件来讲,由于其数据集中存放于总部的数据库服务器,客户端不保存任何业务数据和数据库连接信息,也无需进行什么数据同步,所以这些安全问题也就自然不存在了。 2,数据一致性比较。 在C/S结构软件的解决方案里,对于异地经营的大型集团都采用各地安装区域级服务器,然后再进行数据同步的模式。 这些服务器每天必须同步完毕之后,总部才可得到最终的数据。 由于局部网络故障造成个别数据库不能同步不说,即使同步上来,各服务器也不是一个时点上的数据,数据永远无法一致,不能用于决策。 对于B/S结构的软件来讲,其数据是集中存放的,客户端发生的每一笔业务单据都直接进入到中央数据库,不存在数据一致性的问题。 3,数据实时性比较。 在集团级应用里,C/S结构不可能随时随地看到当前业务的发生情况,看到的都是事后数据;而B/S结构则不同,它可以实时看到当前发生的所有业务,方便了快速决策,有效地避免了企业损失。 4,数据溯源性比较。 由于B/S结构的数据是集中存放的,所以总公司可以直接追溯到各级分支机构(分公司、门店)的原始业务单据,也就是说看到的结果可溯源。 大部分C/S结构的软件则不同,为了减少数据通信量,仅仅上传中间报表数据,在总部不可能查到各分支机构(分公司、门店)的原始单据。 5,服务响应及时性比较。 企业的业务流程、业务模式不是一成不变的,随着企业不断发展,必然会不断调整。 软件供应商提供的软件也不是完美无缺的,所以,对已经部署的软件产品进行维护、升级是正常的。 C/S结构软件,由于其应用是分布的,需要对每一个使用节点进行程序安装,所以,即使非常小的程序缺陷都需要很长的重新部署时间,重新部署时,为了保证各程序版本的一致性,必须暂停一切业务进行更新(即“休克更新”),其服务响应时间基本不可忍受。 而B/S结构的软件不同,其应用都集中于总部服务器上,各应用结点并没有任何程序,一个地方更新则全部应用程序更新,可以做到快速服务响应。 6,网络应用限制比较。 C/S结构软件仅适用于局域网内部用户或宽带用户(1兆以上);而我们的B/S结构软件可以适用于任何网络结构(包括33.6K拨号入网方式),特别适于宽带不能到达的地方(例如迪信通集团的某些分公司,仅靠电话上网即可正常使用软件系统)。

数据中心要如何实现节能减排增加能效

我们的研究表明,通过更加严格的管理,公司可以将数据中心的能效提高一倍,从而降低成本并减少温室气体的排放。 具体而言,公司需要更积极地管理技术资产,提高现有服务器的利用率水平;公司还需要更准确地预测业务需求对应用程序、服务器和数据中心设施容量的推动效应,以便控制不必要的资本和运营支出。 数据中心的效率是一个战略问题。 企业建造和运营数据中心花费的资金在公司IT预算中占的比例不断上升,导致用于急需技术项目的预算越来越少。 数据中心建造计划是董事会一级的决策。 同时,监管部门和外部利益相关方也越来越关注公司管理自身碳足迹的方式。 采用最佳实践不仅有助于公司减少污染,还能够提高它们作为良好企业公民的形象。 IT成本高昂如今,公司进行的分析越来越复杂,客户要求实时访问账户,广大员工也在寻找新的技术密集型协作方法。 因此,即使在经济放缓时,人们对于计算、存储和网络容量的需求也在继续增长。 为了应对这一趋势,IT部门正不断增加计算资源。 在美国,数据中心的服务器数量正在以每年约10%的速度增加。 与此同时,在中国和印度等新兴市场,机构正在变得越来越复杂,更多的运营工作实现了自动化,同时有越来越多的外包数据业务在这里进行,因此数据中心的数量呈现出更快的增长态势。 这种对计算资源无法抑制的需求,导致全球数据中心容量稳步上升。 目前,这种增长并没有显露出即将结束的迹象,通常在经济衰退时期它只会进入温和增长状态。 这一增长已经导致了IT成本激增。 如果将设施、存储设备、服务器和人员成本都计算在内,数据中心支出一般会占到企业IT总预算的25%。 随着服务器数量不断增长,电价也正以高于收入和其他IT成本的速度攀升,上述比例只会日益提高。 每年,运行这些设施的成本都在以高达20%的速度上升,而IT总支出的增长速度仅为6%,二者相差极为悬殊。 数据中心支出的不断增加,改变了许多企业的经济结构,尤其是金融、信息服务、媒体和电信公司等信息密集型企业。 在过去5年中,成立一个大型企业数据中心所需的投资已经从1.5亿美元升至5亿美元。 在IT密集型企业中,最大设施的造价正逼近10亿美元。 这一支出挤占了新产品开发的资本,降低了某些数据密集型产品的经济效益,并降低了利润。 此外,不断上升的能耗产生了更多、范围更广的碳足迹,导致了环境恶化。 对于大多数服务行业,数据中心是企业最主要的温室气体排放来源。 在2000到2006年间,用于存储和处理数据的电力翻倍,每个数据设施的平均耗电量相当于2.5万个家庭的总和。 世界上共有4400万台服务器,消耗了总电力的0.5%。 如今,数据中心的碳排放已经接近阿根廷和荷兰等国家的碳排放水平。 仅仅在美国,到2010年数据中心的预计用电增长量就相当于要新建10座电厂的发电量。 目前的预测显示,如果不对需求加以遏制,2020年全球数据中心的碳排放将是现在的4倍。 监管部门已经注意到这些发展趋势,正在督促公司拿出解决方案。 美国环保署(EPA)建议,作为建立运营效率标准的第一步,大型数据中心应当使用能量计。 同时,欧盟也发布了一套自愿执行的行为准则,其中介绍了以较高的能效运行数据中心的最佳实践。 随着数据中心排放量的持续上升,政府可能会为了减排而施加更大的压力。 第2页:全面应对挑战全面应对挑战在信息密集型机构中,许多部门和级别的人员都可以做出影响数据中心运营效率的决策。 金融交易员可以选择运行复杂的蒙特卡洛(MonteCarlo)分析,而药物研究人员可以决定要将多少临床实验影像数据存储起来。 负责应用程序开发的管理人员可以决定用多少编程工作来满足这些需要。 服务器基础设施的管理人员可以做出设备采购决策。 设施主管则可以决定数据中心的位置、电力供应,以及在预测的需求出现前安装设备的时间表。 上述决策通常是在孤立状态下做出的。 销售经理可能会选择将交易由隔夜结算改为即时结算,金融分析师则可能希望为历史数据存储几份副本,他们完全没有考虑到这样做会对数据中心的成本造成什么影响。 应用程序开发人员很少想到要对自身的工作进行优化,以将服务器用量降到最低,也很少考虑开发能够跨服务器共享的设计应用程序。 购买服务器的管理人员可能会选择价格最低或他们最熟悉的产品。 但是这些服务器也许会浪费数据中心的电力或空间。 很多时候,管理人员会超额购买设备,以保证在最极端的使用情况下拥有足够的容量,而这会造成容量过剩。 管理人员往往会建造有多余空间和高制冷容量的设施,以满足极端情况下的需求或应对紧急扩建。 这些决策在整个机构中累加起来,将对成本和环境造成重大影响。 在许多情况下,公司可以在不降低自身数据管理能力的前提下,停用现有的部分服务器,并搁置购买新服务器的计划。 这可以借助一些众所周知的技术来实现。 比如虚拟化,这种技术实际上是通过寻找服务器的空闲部分来运行应用程序,以达到容量共享的目的。 但是公司不一定会这样做,因为没有哪位高管能够承担“端对端”的责任。 在机构内部,管理人员会以最符合自身利益的方式行事,这就造成大多数数据中心效率低下,每台服务器上常常只运行了一个软件应用程序。 我们分析了一家媒体公司的近500台服务器,其中利用率低于3%的占三分之一,而低于10%的则占三分之二。 虽然有诸多用于跟踪使用情况的现成管理工具,但这家公司没有使用其中任何一种。 从全球来看,我们估计服务器的日常利用率一般最高只有5%到10%而已,这造成了能源和资金的浪费。 对此,数据中心管理人员一般会回答,配备这些服务器是为了在极端情况下提供容量,例如应付圣诞节前一天的购物潮。 但一般来说,这一论断并不成立,因为数据显示:如果平均利用率极低,那么高峰时段的利用率也会很低。 此外,数据设施的数量不断攀升,但所存放的服务器和相关设备有时仅占数据设施容量的一半,这说明有上亿美元的资本支出被浪费了。 即使公司报告认为数据中心已经满载,但沿着数据中心的过道行走,经常会发现服务器机架上有很多空位,原先放在这些空位中的设备都已经淘汰。 之所以出现这种不一致的现象,部分原因在于预测数据中心需求的难度很高。 运营的时间框架是一个问题。 数据中心的设计和建造一般需要2年或更长时间,而预计的使用寿命至少为12年,因此容量是在业务部门产生实际需求之前就已经设定的。 与此同时,对于业务决策如何互相影响,如何转化为对新应用程序的需求,以及需要多少服务器容量才能满足需求,还存在着认识不够全面的现象。 例如,如果客户需求增长50%,许多公司很难预测出服务器和数据中心的容量是需要增加25%,还是增加100%。 在极端情况下,我们发现一些设施在投入运营后常年处于半空状态;而另一些公司在建成一个数据中心之后,很快就发觉需要再建一个新的。 如今数据中心已经成为一项昂贵的资产,由此可以推断,财务绩效责任落实得十分糟糕。 设施的财务和管理责任往往会落在不动产管理人员身上,而这些人基本不具备相关的专业技术知识,对于IT与核心业务问题的联系也缺乏深入的认识。 同时,管理服务器运营的人员很少去了解关键运营支出的数据,例如耗电量或IT设备所占不动产的实际成本。 相反,当IT管理人员决定购置更多的应用程序或新的服务器时,有时只会使用硬件初始成本和软件许可证费用等基本指标。 计算实际成本时,需要考虑设施运营和租赁、电力使用、支持以及折旧等因素。 这些费用可能是服务器初始购置成本的4到5倍。 加上前面说到的孤立决策和责任问题,数据中心通常会添加额外的服务器作为保险措施,而很少讨论成本权衡或业务需求。 在缺乏实际成本分析的情况下,过度建造、过度设计和效率低下就成了普遍现象。 第3页:改革运营方式改革运营方式在研究之初,我们以为通过建造新的节能型数据中心,可为降低数据中心的成本和碳排放指出一条光明大道。 新的设施可以发挥当前各种技术的优势,利用自然冷却方法和碳排放较低的电源。 但我们还了解到,在降低成本和碳排放方面成效最显著的方法是改善公司现有数据中心效率低下的状况。 通过改善资产管理,增强管理层的责任意识,并且为降低能源成本和碳排放设立清晰的目标,大多数公司都能够在2012年之前将IT能效提高一倍,并遏制其数据中心温室气体排放的增长。 实际上,您无需另行建造就能获得最环保的数据中心。 积极管理资产一家大型公司采用的做法表明,规范现有服务器和设施的使用就可能产生巨大的收益。 这家公司原本的计划是,增加服务器的数量,并建造一个新的数据中心来容纳这些服务器和其他IT设备,以便满足自身在2010年的信息需求。 该公司的董事会已经批准了这项计划,但这意味着企业在这一年会有大量的资本支出。 于是,这家公司彻底修改了计划。 它将关闭5000多台很少使用的服务器。 通过对占公司应用程序总量15%的3700个应用程序进行虚拟化,可以将现役服务器的数量由2.5万台减少至2万台。 公司还更换了一些较为陈旧的服务器,代之以能够将用电效率提高20%的产品。 这些调整使公司得以搁置原先的数据中心扩建计划,并因此节省了3.05亿美元的资本投资成本。 由于服务器数量和耗电量的下降,运营支出预计将减少4500万美元,降低到7500万美元。 考虑到停用和虚拟化因素,服务器运行时的平均容量利用率将由目前的5.6%升至9.1%。 该公司仍然能够满足自身日益增长的数据需求,但是电力需求的减少,意味着未来4年内的二氧化碳排放将由59.1万吨削减至34.1万吨。 公司还可以通过对不断上升的数据需求加强管理来实现节约。 对于应当保留多少数据,是否要缩减某些数据密集型分析的规模,业务部门应当审查相关的政策。 一些交易的计算可以推迟,以降低服务器在高峰时段的利用率,也并不是所有企业信息都需要基于广泛备份的灾难恢复功能。 更好的预测和规划是提高数据中心效率的基础。 公司应当跟踪自己对数据需求的预测与实际需求之间的差异,然后向能够最大限度减少预测偏差的业务部门提供奖励。 数据中心的管理人员应尽可能全面了解未来的趋势,例如机构增长和业务周期等,然后将这一趋势与自身采用的模型结合起来。 由数据中心、应用架构师和设施操作人员提供的建议可以用于改善这些模型。 一家全球通信公司制定了一套规划流程,将每个业务部门数据增长量的各种发展情况包括在内。 虽然公司最终得出的结论是,它需要扩大容量,但是未来需求中有很大一部分可通过现有资产来满足,这比原计划节约了35%的资本支出。 许多机构并没有将数据中心看作一种稀缺的昂贵资源,而是将其当成了等待注水的水桶。 为了避免这种趋势,公司在估算新服务器或附加应用程序和数据的成本时,可以采用实际拥有成本(TCO)核算法。 业务部门、软件开发人员或IT管理人员在进行支出决策时,很少会将应用程序和服务器的生命周期运行成本考虑在内。 提早计算这些成本,有助于限制过量的需求。 管理这些变化可能十分困难。 大型机构中的许多人并没有意识到数据的成本。 企业的每一个部门都会产生对于数据中心服务的需求。 满足这些需求的责任分散在IT部门(包括运营和应用开发)、设施规划人员、共享服务团队和企业不动产职能部门身上。 成本报告工作并没有统一的标准。 第4页:提高总体效率提高总体效率作为数据中心改进计划的一部分,我们建议采用一项新的指标:企业数据中心平均效率(CADE)。 与美国的企业燃料平均经济性(CAFE)里程标准类似,CADE考虑了数据中心内的设施能效、设施利用率和服务器利用率水平。 将这些因素综合起来,就得到了数据中心的总体效率,即CADE(图)。 减少了成本和碳排放的公司将提高自身数据中心的CADE分数。 这就像在汽车行业中,出色的里程数能够提高CAFE评级一样。 为了给改进工作设立目标,我们将CADE分为五级。 属于CADE第1级的数据中心运营效率最低;大多数机构最初可能都会被归入较低的级别。 关闭利用率低下的服务器、采用虚拟化技术以及提高设施空间的使用效率,都将提高CADE分数。 借助CADE,公司还可以对整个数据中心的设施进行基准比较分析,或者与竞争对手进行比较,也可以为管理人员设立绩效目标并加以跟踪。 在数据中心的需求管理方面,我们建议采用一种由首席信息官全权负责的新治理模型。 在这种体制下,首席信息官能够更为透彻地了解各业务部门的数据需求;对于需要更多服务器或软件应用的新数据项目,他们可以强制要求将能耗和设施成本考虑到相应的投资回报计算中。 我们还建议首席信息官采用一种新的指标来衡量改进情况,请参见副文“提高数据中心的效率”。 通过强化责任,首席信息官将拥有更高的积极性来寻求改进,例如采用虚拟化技术和提高现有设施的利用率。 由于这种模型将关键业务决策的更多责任集中在首席信息官身上,因此不但需要首席执行官的全力支持,而且要求机构转变以往对于业务部门的数据中心扩容请求有求必应的思维模式。 此外,首席信息官还应当设定将数据中心的能效提高

本文版权声明本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系本站客服,一经查实,本站将立刻删除。

发表评论

热门推荐