十站大好
对于Linux 社区的新手来说,这篇文章或许是给你引路的好帮手。
Internet 对于开发和利用Linux 是如此的重要,所以,对于一个Linux用户来说首先要做的事情就是熟悉那些网上的在线资源,这里当然没有包括我们自己的LinuxPlanet.com ,它当然是Internet 上最富信息价值的站点之一。如果你有其他的理由想要看其他的地方,你或许可以参考一下下面几个站点:
软件:
Freshmeat http://freshmeat.net/
Freshmeat 在某种程度上是Linux 社区的躯干和神经,每天有10到30种新的Linux 或者其他免费Unix 的软件,Freshmeat 几乎囊括了全部。它还包括强大的搜索引擎,可以找到在它那里发表过的软件。同时,它还是Linux 社区重要杂志的编辑部,建议每天至少去一次:www.freshmeat.net
LinuxBerg http://www.linuxberg.com/
面向率值恼镜悖瑆ww.linuxberg.com,来自TUCOWS 的创立者,进去以后,让你从大约146个镜像站点中选择适合最快下载的站点。对于每个软件还有评价(5个企鹅是最好的),每个Linuxberg 服务器都有最流行的Linux 发行
版本的免费下载。这还不够,Linuxberg 也是Linux HOWTO 的档案库。
新闻站点
Slashdot http://slashdot.org/
如果说Freshmeat 是Linux 社区的神经系统的话,那么Slashdot 一定是嘴巴了。这个站点聚焦科技性文章以及Linux 方面的故事,然而,真正使Slashdot 不同凡响的且是每一个故事后面的评论。每个人都可以发表评论。这就使Slashdot看起来不像一个Web站点,而更像一个活的,呼吸着数字化信息的巨 兽。最终导致“Slashdot 效应”,当服务器速度很慢时,每当连接到这个站点时,无法避免的导致瘫痪。Slashdot 有时候会因为激烈的讨论和激进的态度招致批评,但是无论是你爱它还是恨它,都不能否定它对Linux 的影响。
Linux Today http://www.linuxtoday.com/
从完整性来讲,没有站点可以和www.linuxtoday.com 相比。日访问量可以证明这一点。对于要跟上快速变化的Linux 世界人来说,这个站点绝对不能不去。
Linux Weekly News http://www.lwn.net/
另一个值得一看的新站点是The Linux Weekly News,它自称“奉献于Linux 用户最新最准确的新闻”,并称有许多原作者,对于Linux 和Open Source 的点评绝对经典。
Kernel Notes http://www.kernelnotes.org/
不像其他的新闻网站,www.kernelnotes.org 只关注一件事情,那就是Linux 内核。如果你乐于定制你的内核,那么这个站点很合适你。
其他好站
Linux.com http://www.linux.com/
Linux.com 是 VA Research 新的“全包”的Linux 站点。从全方位角度提供Linux信息,而不需要使用搜索引擎。
Themes.org http://themes.org/
这个站点证明你可以用Linux 站点作任何事情。面对桌面大军,收集了各种不同的桌面主题以及各种窗口管理器。
LinuxGames http://www.linuxgames.com/
当然是一个游戏站点啰!
Segfault http://segfault.org/
最后,介绍www.segfault.org,很难准确描述,但是很有特色的一个网站。
你不妨去看看,肯定会笑一笑的(或许是两笑),它的主要格式就像洋葱皮一样,一层层剥开,包括和Slashdot 类似的点评系统。
Saturday, June 16, 2007
digg 与 slashdot
11月17日,对于digg而言是一个重要的日子,因为有关digg的新闻登上了slashdot的主页。吵吵闹闹几个月后,digg狂热分子的热情终于得到了发泄,因为slashdot这一权威,或者说高高在上的竞争对手,已经注意到了digg的崛起,并且开始对digg正眼相看。
slashdot 和digg都是科技类新闻社区,但事实上却代表着两种不同机制,或者说,两种不同文化的争鸣。具体而言,slashdot采用的是管理员驱动 (moderator driven)的机制:用户提交新闻,管理员审阅后决定这些提交的新闻是否出现在slashdot的主页上;而digg采取的是用户驱动(user driven)的机制,它设置了一个新闻源的缓冲,用户提交的新闻首先进入这个缓冲,如果认同这一新闻的读者足够(digg通过一种类似民主投票的方式来表示对新闻的支持和认可,这一过程叫做digg),就会从缓冲中脱颖而出,出现在digg页面上,否则就逐渐被挤出新闻源缓冲。说的直观一点, slashdot由管理员控制,而digg则将权力下放给用户。
这两种不同的新闻提交机制,衍生出不同的社区文化。由于用户的高度自主性,以及和blog、website的有效集成,digg对最新的网络资讯反应非常迅速,例如,某个新出现的网络服务开始发放邀请了,某个网络服务有了重要的更新,某种新产品登场了等等。任何人都可以将任何有趣的资讯提交到digg(资讯的输入),任何人都可以对这些资讯进行评论或投票(资讯的处理),任何人都可以将这些资讯通过digg发布到自己的blog或者website(资讯的输出)。由于大量用户通过digg的服务进行新闻资讯的输入、处理和输出,在短短几个月内,digg的用户和网页流量呈爆炸式增长,并逐渐压倒slashdot。而随着digg的壮大,挑战slashdot的声音逐渐响起。1 2 3
和digg 不同,任何提交到slashdot的新闻都必须通过技术人员的审核,因此slashdot对新事物的反应比较滞后,而由于审核人员的观点和普通读者的观点可能有很大的差异,因此一些有趣的新闻可能会被过滤或忽略。两下一比较,看起来似乎digg更“进步”一些,但digg在带来用户自主性的同时,也出现了不少难以解决的问题,比如经常会有一些无聊的文章,或者重复的文章得到“认可”并出现在主页上,某些评论错误百出,甚至不少是技术方面的常识性错误,而这都是因为digg的门槛太低,以及用户群的知识层次有限所致。
相反,slashdot就很少出现类似的情况,原因在于其读者群整体素质非常高,其中大量充斥着geek和hacker,以及一些专门在大学或其它学术单位做研究的教授及专业人士。尽管技术人员的审核有些缓慢,但却保证了新闻的质量,经过多年的沉淀,slashdot逐渐积累了一大批高品位的读者,这些是digg这个短期暴发户所不能具备的。
Linus Torvalds在评论slashdotter时说到:他们不管懂还是不懂,总能发表一些所谓的精辟言论。为了免遭slashdotter的敲打,他补充到,其实他自己也一直是slashdot的读者。
尽管这些不过是Linus的一些戏言,但却从另外一个角度反应了slashdot为什么吸引人。事实上,留言一直是slashdot的最大特点。 slashdotter们围绕着最新的互联网科技、开源社区、unix/linux的发展、版权的纷争等话题热烈讨论,其容纳的资讯远远超过了新闻主题本身,里面除了会出现一些和主题相关的重要补充和精彩发挥外,还不时地会出现一些给人启发的想法,让人获益匪浅。相比较而言,digg显得比较浅薄,除了一些可有可无的口水外,你实在很难从中找出有意义的言论,而且,由于digg的读者绝大部分都是windows用户,因此对unix/linux非常排斥,甚至一度出现过逐出linux新闻的言论,而这些都在一定程度上对digg产生不利的影响。
因此,尽管有不少狂热分子在吵着如何挑战 slashdot,但事实上digg很难在实质意义上撼动slashdot的地位,更确切一点说,digg今后的发展路线很难和slashdot产生交集,slashdot依旧走它自己的geek路线,而digg则会吸收越来越多的追求最新资讯的网民,并形成自己所特有的平民文化。
slashdot 和digg都是科技类新闻社区,但事实上却代表着两种不同机制,或者说,两种不同文化的争鸣。具体而言,slashdot采用的是管理员驱动 (moderator driven)的机制:用户提交新闻,管理员审阅后决定这些提交的新闻是否出现在slashdot的主页上;而digg采取的是用户驱动(user driven)的机制,它设置了一个新闻源的缓冲,用户提交的新闻首先进入这个缓冲,如果认同这一新闻的读者足够(digg通过一种类似民主投票的方式来表示对新闻的支持和认可,这一过程叫做digg),就会从缓冲中脱颖而出,出现在digg页面上,否则就逐渐被挤出新闻源缓冲。说的直观一点, slashdot由管理员控制,而digg则将权力下放给用户。
这两种不同的新闻提交机制,衍生出不同的社区文化。由于用户的高度自主性,以及和blog、website的有效集成,digg对最新的网络资讯反应非常迅速,例如,某个新出现的网络服务开始发放邀请了,某个网络服务有了重要的更新,某种新产品登场了等等。任何人都可以将任何有趣的资讯提交到digg(资讯的输入),任何人都可以对这些资讯进行评论或投票(资讯的处理),任何人都可以将这些资讯通过digg发布到自己的blog或者website(资讯的输出)。由于大量用户通过digg的服务进行新闻资讯的输入、处理和输出,在短短几个月内,digg的用户和网页流量呈爆炸式增长,并逐渐压倒slashdot。而随着digg的壮大,挑战slashdot的声音逐渐响起。1 2 3
和digg 不同,任何提交到slashdot的新闻都必须通过技术人员的审核,因此slashdot对新事物的反应比较滞后,而由于审核人员的观点和普通读者的观点可能有很大的差异,因此一些有趣的新闻可能会被过滤或忽略。两下一比较,看起来似乎digg更“进步”一些,但digg在带来用户自主性的同时,也出现了不少难以解决的问题,比如经常会有一些无聊的文章,或者重复的文章得到“认可”并出现在主页上,某些评论错误百出,甚至不少是技术方面的常识性错误,而这都是因为digg的门槛太低,以及用户群的知识层次有限所致。
相反,slashdot就很少出现类似的情况,原因在于其读者群整体素质非常高,其中大量充斥着geek和hacker,以及一些专门在大学或其它学术单位做研究的教授及专业人士。尽管技术人员的审核有些缓慢,但却保证了新闻的质量,经过多年的沉淀,slashdot逐渐积累了一大批高品位的读者,这些是digg这个短期暴发户所不能具备的。
Linus Torvalds在评论slashdotter时说到:他们不管懂还是不懂,总能发表一些所谓的精辟言论。为了免遭slashdotter的敲打,他补充到,其实他自己也一直是slashdot的读者。
尽管这些不过是Linus的一些戏言,但却从另外一个角度反应了slashdot为什么吸引人。事实上,留言一直是slashdot的最大特点。 slashdotter们围绕着最新的互联网科技、开源社区、unix/linux的发展、版权的纷争等话题热烈讨论,其容纳的资讯远远超过了新闻主题本身,里面除了会出现一些和主题相关的重要补充和精彩发挥外,还不时地会出现一些给人启发的想法,让人获益匪浅。相比较而言,digg显得比较浅薄,除了一些可有可无的口水外,你实在很难从中找出有意义的言论,而且,由于digg的读者绝大部分都是windows用户,因此对unix/linux非常排斥,甚至一度出现过逐出linux新闻的言论,而这些都在一定程度上对digg产生不利的影响。
因此,尽管有不少狂热分子在吵着如何挑战 slashdot,但事实上digg很难在实质意义上撼动slashdot的地位,更确切一点说,digg今后的发展路线很难和slashdot产生交集,slashdot依旧走它自己的geek路线,而digg则会吸收越来越多的追求最新资讯的网民,并形成自己所特有的平民文化。
从猫扑和Slashdot到内容集成
从猫扑和Slashdot到内容集成
这个故事要从猫扑说起。2000年底Mop建立猫扑的时候,是把它作为双重功用的社区看待的:一方面是个搜集TV Game资料的信息库,另一方面也是TV Game同好灌水撒野的地方。Mop在建立这个社区的时候给自己定下了几个重要的准则,其中最重要的,就是允许网民们自由的发言,这也就是最早“大杂烩” 的来历,由于早期的到访者大多是朋友,有着类似的经历和爱好,基本上就像一个大家庭,虽然话题渐渐的五花八门,但是内中自有着天然的和谐。
随后就是BT这个词的诞生。大杂烩有了一两个家伙,开始在TV Game以外的领域为大杂烩赢得名声了。靠着Internet令人惊异的传播力,最初几个经典的BT贴广为传播,被N多站点转载(其中包括著名的《手机掉到马桶里》、《性感市场营销》等),那种颠覆性的跳跃式想象力立刻得到了年轻人们的认同——很酷、很好玩,这两个因素基本上是大部分人上网追求的感受。于是,用户蜂拥而至,内容一下子离散了,猫扑的大杂烩不得不从原来的以游戏为主题的论坛中独立出来,成了功能完全不一样的一个社区——名副其实的大杂烩,这里有新闻、心情、原创文学、游戏、网上约会——所有你想得到的内容,同时在线人数从初期的几十发展到几百,进而几千。海量的在线人数和发贴数量直接导致了汪洋大海般的水贴,淹没了任何有点意义的内容。这个阶段的猫扑成了Mop本人的痛苦,他既不能放弃原来自己“自由的发言”的原则,又无法接受漫天毫无意义的水贴,希望利用各种规则来提高非水贴的数量和位置,但是效果都不明显。。。也许目前还是这个状态,但是我已经很少去了,不知道有什么新的发展。
其实这个实例不是偶然的,在世界上还有另外一个同样热门的站点,有着惊人类似的缘起和经历,那就是Slashdot。这个来自美国密执安州的一个叫Holland的小城的站点被视为颠覆传统媒体的发源地,它由年轻的Linux软件爱好者Rob "CmdrTaco" Malda创办,本意也是个信息仓库——不过Malda感兴趣的是Linux,然后跟猫扑一样,逐渐演变成为网络技术人员的 “快乐大本营”,其中集结了大量的技术内容和技术讨论。但是这里也许就是事情的关键——Slashdot的主体是IT从业人员,其中尤其不乏思维敏捷创造力超群的天才(Malda本人就是其中最出色的之一),它很快建立了自己的信息发布和管理模式:一种完全 DIY的模式,网民自己把自己看到的最新最有趣的东西发出来,附上源信息的链接,如果把它看作一个虚拟的出版社(这个比喻最早是Malda自己提出的,就凭这一点,他的社会学头脑就跟Mop不是一个档次的),那么,这家出版物的读者每天向编辑部提供多达400个超链接、新闻线索、创意和完整的新闻报道,但并不从该出版物领取一分钱,而且这些报道全都是“第一手”的,没有可恶的新闻中介(记者)和审查官。
Malda建立了由自己信任的好友组成的编辑部,经过仔细筛选,编辑部挑出5到10个可能引起读者最大兴趣的题目,然后加上一段很短的提要,并附带一个指向信息源的链接,发布到网站的首页(headlines)。如果是原创性的文章,编辑部也会在文章前面加上内容提要,再用一个链接指向单独的网页。这样刊出之后,凭借数以千计的在线读者,很快会有成百上千或长或短的评论、指责、咒骂、更正、插科打诨和旁批蜂拥而至。Malda坚信人们有权利匿名发表他们的看法,因而所有不想在网刊上暴露他们身份的读者都可以使用一个笔名投稿,这个笔名叫做“无名的懦夫(Anonymous Coward)”。
现在和猫扑类似的问题出现了,就像Slashdot建立初期就有的专业新闻工作者所预言的:“这些东西都是垃圾。这样做并不是在观察报道网络的混乱,而是在复制混乱。读者是无法处理这些芜杂的信息的,所以公众才会需要我们这样的人——为的是过滤噪音。”Malda如何解决这个问题呢?这里的思路是非常伟大而又优雅精致的。
首先,Malda和他精干的编辑人员坚信,公众依赖媒体“守门人” (gatekeeper)的时代已经过去了。但Malda也清楚地知道,完全缺少过滤会造成致命的后果。一个网站让读者自由发表意见的名声越大,它也越有可能被其高知名度所摧毁——除了猫扑,更有国际影响的是Amazon提供的有力例证,它允许读者自由上传书评,最后发现书评数量的增长与质量的提高呈现强烈的反差。同样的,在Slashdot网站上,由“无名的懦夫”们所发出的聒噪足以淹没任何理性的声音。Malda曾经公开的感慨,读者人力的增加并不意味着脑力的增加,更不会带来信息价值的提升。
Slashdot处于被spam、flame war、以及离题万里的奇谈怪论所埋葬的危险之中,但是摆脱困境的办法不是删除这些东西——Slashdot的读者们极其厌恶由一个“上帝”对多样化的声音加以甄别的做法,假如Malda——或者他的代理人——以新闻检察官的身份出现,就会毁掉这个由他一手创办的网上社区。作为一个技术天才(不夸张的说),Malda很自然地设想——是否能用某种软件上的办法来解决这个问题?这也许就是最早的社会性软件的概念—— 用软件来代替某种社会角色完成一个大范围的社会活动。
这个思考的结果是他发展的一种制度,这种制度允许25位最受信任的用户对刊发稿加以系统评估,授予那些持续受到好评的用户“主持人”身份。每过半小时,计算机会检查所有的帖子,并给当时在线的读者打分。在任一时间内,都会有300到500名读者积攒到足够的分数,并经随机筛选成为主持人。主持人本身也可以获取一定的分数分配,这使得他们有权力对一定数量的帖子加以评论。他们可以在三天内用完他们的所有得分,过期则作废。
这样创造出了一个自我运行的系统——在传统的新闻采集过程中,记者和编辑试图搞清楚外界发生的事实,然后和专家的意见进行平衡,再用一些简略的引语把事实表述出来,Slashdot基本上做的是同样的事情,只不过专家的意见占主导地位,引语完整无缺,整个新闻机构以极快的速度和极低的成本保持运行——其灵魂人物不再是总编,而是总编码师。
刘钢在博客中国发表的文章中将这种机制用社会学的概念描述为:“Slashdot的核心原则就是‘无审查’:任何人对这里发表的文章均可以受到不同方式的评论。Slashdot的规则(尽管它不这样叫)对处理个人与组群之间的紧张只规定三种机制:①协调机制,一种召集背景身份比较好的成员参加仲裁的方式,他们的职能是根据帖子的质量进行排序;②超协调机制,核查协调成员是否存在偏见或不公,一种‘谁监督监督人’问题的解决方案;③决定人个人行为总和的方式,通过它来确定某个成员是否有好的背景。这三条政治学的概念使得Slashdot能够成功的得以运行。”
由于某种原因,Malda在2001年把Slashdot卖给了Linux企业级解决方案厂商,拥有开源信息集团OSDN的VA Software Corporation。有了充足的资金来建立良好服务渠道的Slashdot造就了“Slashdot效应”:当它在网站上刊出一个新的指向另一家网站上某篇文章的链接的时候,那家网站的服务器会立刻遭到Slashdot狂热读者暴风骤雨般的点击。
我一直觉得,这里面的技术含量没话说,但是核心还是观念。Malda敏锐的重塑了传统媒体的“采、编、审、发”流程,找到了被广泛认同的最大自由度的“规则”(规则往往就是限制的同义词,所以越多越复杂的规则认同度越低)。另一方面,高认同度的规则稳定了足够数量的“信息来源”,读者自己发新闻、修正和补充、汇编相关内容,经常新闻都是从当事人或者最接近当事人的人发布出来的,其真实性、时效性远胜传统媒体。最后,Slashdot把超链接发挥到了极致,一段精练的文字加上几个精心挑选的超链接,一下建立起了比传统媒体丰富无数倍的内容和难以比拟的表现力。所以我把Slashdot的成功总结为三点:light(but efficient) rules、diy和hyperlink。
有一样东西同样基于这三个特点,紧随Slashdot之后迅速的发展、壮大——这就是weblog。weblog貌似个人版在线论坛,但是最早的出发点跟交互式的论坛完全不同,它是为了让用户可以在看网站时记录下随兴的感想,所以它最早的形式是:一个源页面的链接,几句感想或者注释——今天,深谙blog出身和真髓的老鸟也大多是以这种方式使用着blog(当然,把blog当作心情日记甚至流水帐的人也是很多的啦,这个没有对不对的,技术以人为本,你高兴就好)。
随着加入blogger群的人越来越多,blog本身也成了一种文化,甚至成了一派新的软件(social software),这个要说清楚可不容易,绝对是另一篇文章了,我们现在回到我们的主旨——出版。如果说Slashdot是个虚拟的出版社,blog就是一个个小的个人出版作坊,Slashdot海纳百川,个人作坊不可能提供可比拟的信息量,谁会订阅一份不知道几时攒齐足够文章出一期刊也不知道内容是不是对自己胃口的杂志呢?
若干年前,M$猛吹他的“推”信息和频道描述文件(CDF)的时候我完全不能理解其价值何在(而且深深的为它强加到我桌面上的那些垃圾所困扰),有了blog之后这个价值就容易理解多了——个人作坊们需要联合起来,提供一种方便的机制让读者可以简单快速的浏览内容摘要,然后选择感兴趣的东西详细阅读。既然个人作坊们可以这样干,大的信息提供者当然更要这么干,于是就有了信息提供者(无论大小)的标准化目录格式,这就是W3C的Resource Description Framework(RDF)以及由purl.org(purl代表Persistent Uniform Resource Locator)在此基础上实现的RDF Site Summary(RSS)协议,要把自己的内容目录发表在Internet上的内容提供者只要按这个格式生成文件,就能保证想使用它的系统能够看的懂。简单的说,RSS就是一种附加了说明的增强版超链接,你可以很容易的知道这个链接指向网页的标题、内容摘要、发布时间、作者、主题、分类等信息。
进而,产生了专门阅读这种摘要的软件,统称RSS Feed Reader,由于这种软件(FeedDemon是公认的其中佼佼者)通常允许同时登记N个站点的RSS然后快速浏览,甚至自动生成一组RSS内容的组合视图,就好像自动把各个报纸杂志中你最感兴趣的内容集合到一起,再按你喜欢的字体、颜色、版式为你订做出一份完全个性化的报纸给你——真爽!——所以这种软件也被称为News Aggregator。这样你可以不必登录一个又一个网站,从五颜六色的广告和其他干扰中为了找到你感兴趣的一点点东西费劲,你只要下载一个个精练的 RSS文件(优秀的内容提供者往往会按照主题和分类提供不同的RSS供你选择),然后阅读为你定制好的报纸头版,然后点击你感兴趣的摘要就能进入为你带来报导的原站点,并通过超链接跟踪到一大堆相关的信息,世界真是美好,不是吗?
好的技术往往是这样的:技术实现简明易懂,但却拥有几乎无限的应用可能,RSS就是最佳实例。RSS在后台可以和几乎所有的内容提供者整合—— 只要按这个简明的标准生成RSS文件,立刻可以变成一个合格的RSS提供者,在前台RSS可以被多种多样的方式展现出来:网页、RSS Reader,可以运行于多种多样的终端:PC、PDA等等。内容可以直接送给用户,让用户自己来组合,也可以交由专门进行内容汇编服务的broker,由broker来专门为用户提供个性化的内容、内容的自动分类、多种的发行订阅方式等增值服务——我称之为内容集成(Content Integration)。这种应用模式能够在强调内容提供者专业性的同时,给用户更多的选择,更个性化的体验,也为内容服务的市场细分提供了强有力的技术基础。
现在,我必须要对每一位耐着性子看到这里的读者致以2^N万分的敬意,自从完成了大学毕业论文以后我从来没写过这么长的东西,您现在可以站起来,离开电脑,出去呼吸一下新鲜空气——如果有多余的脑细胞,可以最后看一眼这些摘要:
1、Internet难以想象的网页数量、在线人数和超链接机制造就了新闻采编的全新模式。
2、这种模式下,新闻的真实性、时效性、专业性等传统难题让位于信息的筛选。
3、Slashdot在它的用户群中建立了完善的筛选机制,所以成为了新式新闻出版的领跑者。
4、大量Blog的出现和RSS技术使得信息获取的渠道得以进一步扩展到每一个读者自己,同时没有牺牲任何简单性和个性化。
5、RSS作为对经典超链接技术的有力增强,催生了内容集成和信息代理(broker),开始引导内容服务市场的细分,从而带给最终用户更准确的信息访问和更优质的内容服务。
6、所有这些机制完全改写了传统出版的每个关键工作流,必将取代后者成为人们获取信息的主流方式。
//老文章, 作者:Neo | 出处:Ragnarok Studio | 发布时间:2005-4-13 | 阅读 583 次
这个故事要从猫扑说起。2000年底Mop建立猫扑的时候,是把它作为双重功用的社区看待的:一方面是个搜集TV Game资料的信息库,另一方面也是TV Game同好灌水撒野的地方。Mop在建立这个社区的时候给自己定下了几个重要的准则,其中最重要的,就是允许网民们自由的发言,这也就是最早“大杂烩” 的来历,由于早期的到访者大多是朋友,有着类似的经历和爱好,基本上就像一个大家庭,虽然话题渐渐的五花八门,但是内中自有着天然的和谐。
随后就是BT这个词的诞生。大杂烩有了一两个家伙,开始在TV Game以外的领域为大杂烩赢得名声了。靠着Internet令人惊异的传播力,最初几个经典的BT贴广为传播,被N多站点转载(其中包括著名的《手机掉到马桶里》、《性感市场营销》等),那种颠覆性的跳跃式想象力立刻得到了年轻人们的认同——很酷、很好玩,这两个因素基本上是大部分人上网追求的感受。于是,用户蜂拥而至,内容一下子离散了,猫扑的大杂烩不得不从原来的以游戏为主题的论坛中独立出来,成了功能完全不一样的一个社区——名副其实的大杂烩,这里有新闻、心情、原创文学、游戏、网上约会——所有你想得到的内容,同时在线人数从初期的几十发展到几百,进而几千。海量的在线人数和发贴数量直接导致了汪洋大海般的水贴,淹没了任何有点意义的内容。这个阶段的猫扑成了Mop本人的痛苦,他既不能放弃原来自己“自由的发言”的原则,又无法接受漫天毫无意义的水贴,希望利用各种规则来提高非水贴的数量和位置,但是效果都不明显。。。也许目前还是这个状态,但是我已经很少去了,不知道有什么新的发展。
其实这个实例不是偶然的,在世界上还有另外一个同样热门的站点,有着惊人类似的缘起和经历,那就是Slashdot。这个来自美国密执安州的一个叫Holland的小城的站点被视为颠覆传统媒体的发源地,它由年轻的Linux软件爱好者Rob "CmdrTaco" Malda创办,本意也是个信息仓库——不过Malda感兴趣的是Linux,然后跟猫扑一样,逐渐演变成为网络技术人员的 “快乐大本营”,其中集结了大量的技术内容和技术讨论。但是这里也许就是事情的关键——Slashdot的主体是IT从业人员,其中尤其不乏思维敏捷创造力超群的天才(Malda本人就是其中最出色的之一),它很快建立了自己的信息发布和管理模式:一种完全 DIY的模式,网民自己把自己看到的最新最有趣的东西发出来,附上源信息的链接,如果把它看作一个虚拟的出版社(这个比喻最早是Malda自己提出的,就凭这一点,他的社会学头脑就跟Mop不是一个档次的),那么,这家出版物的读者每天向编辑部提供多达400个超链接、新闻线索、创意和完整的新闻报道,但并不从该出版物领取一分钱,而且这些报道全都是“第一手”的,没有可恶的新闻中介(记者)和审查官。
Malda建立了由自己信任的好友组成的编辑部,经过仔细筛选,编辑部挑出5到10个可能引起读者最大兴趣的题目,然后加上一段很短的提要,并附带一个指向信息源的链接,发布到网站的首页(headlines)。如果是原创性的文章,编辑部也会在文章前面加上内容提要,再用一个链接指向单独的网页。这样刊出之后,凭借数以千计的在线读者,很快会有成百上千或长或短的评论、指责、咒骂、更正、插科打诨和旁批蜂拥而至。Malda坚信人们有权利匿名发表他们的看法,因而所有不想在网刊上暴露他们身份的读者都可以使用一个笔名投稿,这个笔名叫做“无名的懦夫(Anonymous Coward)”。
现在和猫扑类似的问题出现了,就像Slashdot建立初期就有的专业新闻工作者所预言的:“这些东西都是垃圾。这样做并不是在观察报道网络的混乱,而是在复制混乱。读者是无法处理这些芜杂的信息的,所以公众才会需要我们这样的人——为的是过滤噪音。”Malda如何解决这个问题呢?这里的思路是非常伟大而又优雅精致的。
首先,Malda和他精干的编辑人员坚信,公众依赖媒体“守门人” (gatekeeper)的时代已经过去了。但Malda也清楚地知道,完全缺少过滤会造成致命的后果。一个网站让读者自由发表意见的名声越大,它也越有可能被其高知名度所摧毁——除了猫扑,更有国际影响的是Amazon提供的有力例证,它允许读者自由上传书评,最后发现书评数量的增长与质量的提高呈现强烈的反差。同样的,在Slashdot网站上,由“无名的懦夫”们所发出的聒噪足以淹没任何理性的声音。Malda曾经公开的感慨,读者人力的增加并不意味着脑力的增加,更不会带来信息价值的提升。
Slashdot处于被spam、flame war、以及离题万里的奇谈怪论所埋葬的危险之中,但是摆脱困境的办法不是删除这些东西——Slashdot的读者们极其厌恶由一个“上帝”对多样化的声音加以甄别的做法,假如Malda——或者他的代理人——以新闻检察官的身份出现,就会毁掉这个由他一手创办的网上社区。作为一个技术天才(不夸张的说),Malda很自然地设想——是否能用某种软件上的办法来解决这个问题?这也许就是最早的社会性软件的概念—— 用软件来代替某种社会角色完成一个大范围的社会活动。
这个思考的结果是他发展的一种制度,这种制度允许25位最受信任的用户对刊发稿加以系统评估,授予那些持续受到好评的用户“主持人”身份。每过半小时,计算机会检查所有的帖子,并给当时在线的读者打分。在任一时间内,都会有300到500名读者积攒到足够的分数,并经随机筛选成为主持人。主持人本身也可以获取一定的分数分配,这使得他们有权力对一定数量的帖子加以评论。他们可以在三天内用完他们的所有得分,过期则作废。
这样创造出了一个自我运行的系统——在传统的新闻采集过程中,记者和编辑试图搞清楚外界发生的事实,然后和专家的意见进行平衡,再用一些简略的引语把事实表述出来,Slashdot基本上做的是同样的事情,只不过专家的意见占主导地位,引语完整无缺,整个新闻机构以极快的速度和极低的成本保持运行——其灵魂人物不再是总编,而是总编码师。
刘钢在博客中国发表的文章中将这种机制用社会学的概念描述为:“Slashdot的核心原则就是‘无审查’:任何人对这里发表的文章均可以受到不同方式的评论。Slashdot的规则(尽管它不这样叫)对处理个人与组群之间的紧张只规定三种机制:①协调机制,一种召集背景身份比较好的成员参加仲裁的方式,他们的职能是根据帖子的质量进行排序;②超协调机制,核查协调成员是否存在偏见或不公,一种‘谁监督监督人’问题的解决方案;③决定人个人行为总和的方式,通过它来确定某个成员是否有好的背景。这三条政治学的概念使得Slashdot能够成功的得以运行。”
由于某种原因,Malda在2001年把Slashdot卖给了Linux企业级解决方案厂商,拥有开源信息集团OSDN的VA Software Corporation。有了充足的资金来建立良好服务渠道的Slashdot造就了“Slashdot效应”:当它在网站上刊出一个新的指向另一家网站上某篇文章的链接的时候,那家网站的服务器会立刻遭到Slashdot狂热读者暴风骤雨般的点击。
我一直觉得,这里面的技术含量没话说,但是核心还是观念。Malda敏锐的重塑了传统媒体的“采、编、审、发”流程,找到了被广泛认同的最大自由度的“规则”(规则往往就是限制的同义词,所以越多越复杂的规则认同度越低)。另一方面,高认同度的规则稳定了足够数量的“信息来源”,读者自己发新闻、修正和补充、汇编相关内容,经常新闻都是从当事人或者最接近当事人的人发布出来的,其真实性、时效性远胜传统媒体。最后,Slashdot把超链接发挥到了极致,一段精练的文字加上几个精心挑选的超链接,一下建立起了比传统媒体丰富无数倍的内容和难以比拟的表现力。所以我把Slashdot的成功总结为三点:light(but efficient) rules、diy和hyperlink。
有一样东西同样基于这三个特点,紧随Slashdot之后迅速的发展、壮大——这就是weblog。weblog貌似个人版在线论坛,但是最早的出发点跟交互式的论坛完全不同,它是为了让用户可以在看网站时记录下随兴的感想,所以它最早的形式是:一个源页面的链接,几句感想或者注释——今天,深谙blog出身和真髓的老鸟也大多是以这种方式使用着blog(当然,把blog当作心情日记甚至流水帐的人也是很多的啦,这个没有对不对的,技术以人为本,你高兴就好)。
随着加入blogger群的人越来越多,blog本身也成了一种文化,甚至成了一派新的软件(social software),这个要说清楚可不容易,绝对是另一篇文章了,我们现在回到我们的主旨——出版。如果说Slashdot是个虚拟的出版社,blog就是一个个小的个人出版作坊,Slashdot海纳百川,个人作坊不可能提供可比拟的信息量,谁会订阅一份不知道几时攒齐足够文章出一期刊也不知道内容是不是对自己胃口的杂志呢?
若干年前,M$猛吹他的“推”信息和频道描述文件(CDF)的时候我完全不能理解其价值何在(而且深深的为它强加到我桌面上的那些垃圾所困扰),有了blog之后这个价值就容易理解多了——个人作坊们需要联合起来,提供一种方便的机制让读者可以简单快速的浏览内容摘要,然后选择感兴趣的东西详细阅读。既然个人作坊们可以这样干,大的信息提供者当然更要这么干,于是就有了信息提供者(无论大小)的标准化目录格式,这就是W3C的Resource Description Framework(RDF)以及由purl.org(purl代表Persistent Uniform Resource Locator)在此基础上实现的RDF Site Summary(RSS)协议,要把自己的内容目录发表在Internet上的内容提供者只要按这个格式生成文件,就能保证想使用它的系统能够看的懂。简单的说,RSS就是一种附加了说明的增强版超链接,你可以很容易的知道这个链接指向网页的标题、内容摘要、发布时间、作者、主题、分类等信息。
进而,产生了专门阅读这种摘要的软件,统称RSS Feed Reader,由于这种软件(FeedDemon是公认的其中佼佼者)通常允许同时登记N个站点的RSS然后快速浏览,甚至自动生成一组RSS内容的组合视图,就好像自动把各个报纸杂志中你最感兴趣的内容集合到一起,再按你喜欢的字体、颜色、版式为你订做出一份完全个性化的报纸给你——真爽!——所以这种软件也被称为News Aggregator。这样你可以不必登录一个又一个网站,从五颜六色的广告和其他干扰中为了找到你感兴趣的一点点东西费劲,你只要下载一个个精练的 RSS文件(优秀的内容提供者往往会按照主题和分类提供不同的RSS供你选择),然后阅读为你定制好的报纸头版,然后点击你感兴趣的摘要就能进入为你带来报导的原站点,并通过超链接跟踪到一大堆相关的信息,世界真是美好,不是吗?
好的技术往往是这样的:技术实现简明易懂,但却拥有几乎无限的应用可能,RSS就是最佳实例。RSS在后台可以和几乎所有的内容提供者整合—— 只要按这个简明的标准生成RSS文件,立刻可以变成一个合格的RSS提供者,在前台RSS可以被多种多样的方式展现出来:网页、RSS Reader,可以运行于多种多样的终端:PC、PDA等等。内容可以直接送给用户,让用户自己来组合,也可以交由专门进行内容汇编服务的broker,由broker来专门为用户提供个性化的内容、内容的自动分类、多种的发行订阅方式等增值服务——我称之为内容集成(Content Integration)。这种应用模式能够在强调内容提供者专业性的同时,给用户更多的选择,更个性化的体验,也为内容服务的市场细分提供了强有力的技术基础。
现在,我必须要对每一位耐着性子看到这里的读者致以2^N万分的敬意,自从完成了大学毕业论文以后我从来没写过这么长的东西,您现在可以站起来,离开电脑,出去呼吸一下新鲜空气——如果有多余的脑细胞,可以最后看一眼这些摘要:
1、Internet难以想象的网页数量、在线人数和超链接机制造就了新闻采编的全新模式。
2、这种模式下,新闻的真实性、时效性、专业性等传统难题让位于信息的筛选。
3、Slashdot在它的用户群中建立了完善的筛选机制,所以成为了新式新闻出版的领跑者。
4、大量Blog的出现和RSS技术使得信息获取的渠道得以进一步扩展到每一个读者自己,同时没有牺牲任何简单性和个性化。
5、RSS作为对经典超链接技术的有力增强,催生了内容集成和信息代理(broker),开始引导内容服务市场的细分,从而带给最终用户更准确的信息访问和更优质的内容服务。
6、所有这些机制完全改写了传统出版的每个关键工作流,必将取代后者成为人们获取信息的主流方式。
//老文章, 作者:Neo | 出处:Ragnarok Studio | 发布时间:2005-4-13 | 阅读 583 次
内容管理
据Donews报道:
美国旧金山的Digg公司依靠8万名注册成员每天在互联网上挖掘最有趣的信息,利用集体力量评价和甄别、推广互联网上浩如烟海的视频、播客及文章。 Digg公司成员每天提交大约700条他们自认为比较有趣的信息,提交给注册会员根据他们的喜爱度进行投票,所有新闻按照得票数字多少排序,得票最多的 15条新闻自动在公司网站的首页上公布。目前这个网站每天的访问量接近50万人次,而且这个数字还在以每月10万人次的速度递增。“互联网上充斥着各种各 样的内容:视频节目、音频节目、游戏以及金融信息等,”公司创始人之一阿德尔森说,“你会发现许多利用集体智慧的概念让信息变得更便利的方法。”
Digg模式本质上提供了一种让用户自组织参与内容和信息价值评价的机制,这是他的核心秘密。互联网早已在技术上提供了吸引用户对信息进行自我和自组织评价的条件,但是只有当2.0的个人化浪潮全面展开,基于个人化价值判断的Digg模式才可能走向前台。
我们注意到,Digg评价的内容已经囊括了文字、声音、视频等全部多媒体领域,其中在文字之外的视频和播客评价方面尤其显示出巨大的生命力。目前播客和视 频成为Digg服务中增长较快的部分,其中主要的原因在于,对顺序播放和顺序浏览的视频、声音内容而言,凭借有限工作队伍进行的专业性的评价和内容监控显 得杯水车薪,他们更需要来自大众的集体评价力量。
Digg的兴起,根本原因是他代表了一个庞大而恢弘的网络发展方向,那就是内容评价。如果说搜索服务是内容寻找,那么Digg所代表的则是在内容寻找基础 上更加高层次的内容评价,两者都是互联网信息爆炸时代解决信息匹配问题所必须的基础模式。因此,Digg模式代表的未来和方向是巨大而深远的,是不亚于搜 索引擎的一种全新的商业前景——我们也可以冠之以一个更加合适的、更加反映其与搜索引擎的同等意义和同等前途的名字:评价引擎。
评价引擎与搜索引擎在技术和服务上必然存在一定的交叉,但是两者在信息处理方面具有根本的区别。搜索引擎为用户寻找消息,用户出发点是明确的目标; Digg的评价引擎为用户寻找消息,但是用户出发点只有笼统的方向,并没有具体的目标。所以,评价引擎既具有对于个人的信息寻找意义,更具有整体性的网络 信息的加工整理和评价排序意义,他是真正推动“信息服务于人”的网络终极目标的新运用。
“评价引擎”是2.0时代的新枢纽,是不亚于搜索模式的新机遇,尤其是这样的机遇仍然停留在前期开发周期,那么对很多创业者而言,取得这个方面的先发优势 时犹不晚。更加具有刺激性意义的是,包括Digg在内的“评价引擎”仍然处于前期的探索阶段,这个正在成长中的代表了普遍性未来的模式,未知之处甚多,相 应的先发后发的差距还没有有效拉开,这可以给那些勇敢的冒险者带来的很大梦想。
思考Digg所代表的“评价引擎”,就必须思考互联网2.0时代“自由、开放和共享”的基本文化,必须思考互联网2.0时代“个人化、自组织和全息”的基本特征,在此基础上思考怎么样才可以获得其中的先发优势。
附注:
digg,中文名掘客,就是把好东西都掘出来的掘!
Digg和Slashdot实际上是两个科技类新闻社区digg.com和slashdot.org,它们代表两种不同的新闻提交机制。
slashdot采用的是管理员驱动(moderator driven)的机制:用户提交新闻,管理员审阅后决定这些提交的新闻是否出现在slashdot的主页上;而digg采取的是用户驱动(user driven)的机制,它设置了一个新闻源的缓冲,用户提交的新闻首先进入这个缓冲,如果认同这一新闻的读者足够(digg通过一种类似民主投票的方式来 表示对新闻的支持和认可,这一过程叫做digg),就会从缓冲中脱颖而出,出现在digg页面上,否则就逐渐被挤出新闻源缓冲。直观的说, slashdot由管理员控制,而digg则将权力下放给用户。这两种不同的新闻提交机制,衍生出不同的社区文化。由于用户的高度自主性,以及和 blog、website的有效集成,digg对最新的网络资讯反应非常迅速,例如,某个新出现的网络服务开始发放邀请了,某个网络服务有了重要的更新, 某种新产品登场了等等。任何人都可以将任何有趣的资讯提交。
美国旧金山的Digg公司依靠8万名注册成员每天在互联网上挖掘最有趣的信息,利用集体力量评价和甄别、推广互联网上浩如烟海的视频、播客及文章。 Digg公司成员每天提交大约700条他们自认为比较有趣的信息,提交给注册会员根据他们的喜爱度进行投票,所有新闻按照得票数字多少排序,得票最多的 15条新闻自动在公司网站的首页上公布。目前这个网站每天的访问量接近50万人次,而且这个数字还在以每月10万人次的速度递增。“互联网上充斥着各种各 样的内容:视频节目、音频节目、游戏以及金融信息等,”公司创始人之一阿德尔森说,“你会发现许多利用集体智慧的概念让信息变得更便利的方法。”
Digg模式本质上提供了一种让用户自组织参与内容和信息价值评价的机制,这是他的核心秘密。互联网早已在技术上提供了吸引用户对信息进行自我和自组织评价的条件,但是只有当2.0的个人化浪潮全面展开,基于个人化价值判断的Digg模式才可能走向前台。
我们注意到,Digg评价的内容已经囊括了文字、声音、视频等全部多媒体领域,其中在文字之外的视频和播客评价方面尤其显示出巨大的生命力。目前播客和视 频成为Digg服务中增长较快的部分,其中主要的原因在于,对顺序播放和顺序浏览的视频、声音内容而言,凭借有限工作队伍进行的专业性的评价和内容监控显 得杯水车薪,他们更需要来自大众的集体评价力量。
Digg的兴起,根本原因是他代表了一个庞大而恢弘的网络发展方向,那就是内容评价。如果说搜索服务是内容寻找,那么Digg所代表的则是在内容寻找基础 上更加高层次的内容评价,两者都是互联网信息爆炸时代解决信息匹配问题所必须的基础模式。因此,Digg模式代表的未来和方向是巨大而深远的,是不亚于搜 索引擎的一种全新的商业前景——我们也可以冠之以一个更加合适的、更加反映其与搜索引擎的同等意义和同等前途的名字:评价引擎。
评价引擎与搜索引擎在技术和服务上必然存在一定的交叉,但是两者在信息处理方面具有根本的区别。搜索引擎为用户寻找消息,用户出发点是明确的目标; Digg的评价引擎为用户寻找消息,但是用户出发点只有笼统的方向,并没有具体的目标。所以,评价引擎既具有对于个人的信息寻找意义,更具有整体性的网络 信息的加工整理和评价排序意义,他是真正推动“信息服务于人”的网络终极目标的新运用。
“评价引擎”是2.0时代的新枢纽,是不亚于搜索模式的新机遇,尤其是这样的机遇仍然停留在前期开发周期,那么对很多创业者而言,取得这个方面的先发优势 时犹不晚。更加具有刺激性意义的是,包括Digg在内的“评价引擎”仍然处于前期的探索阶段,这个正在成长中的代表了普遍性未来的模式,未知之处甚多,相 应的先发后发的差距还没有有效拉开,这可以给那些勇敢的冒险者带来的很大梦想。
思考Digg所代表的“评价引擎”,就必须思考互联网2.0时代“自由、开放和共享”的基本文化,必须思考互联网2.0时代“个人化、自组织和全息”的基本特征,在此基础上思考怎么样才可以获得其中的先发优势。
附注:
digg,中文名掘客,就是把好东西都掘出来的掘!
Digg和Slashdot实际上是两个科技类新闻社区digg.com和slashdot.org,它们代表两种不同的新闻提交机制。
slashdot采用的是管理员驱动(moderator driven)的机制:用户提交新闻,管理员审阅后决定这些提交的新闻是否出现在slashdot的主页上;而digg采取的是用户驱动(user driven)的机制,它设置了一个新闻源的缓冲,用户提交的新闻首先进入这个缓冲,如果认同这一新闻的读者足够(digg通过一种类似民主投票的方式来 表示对新闻的支持和认可,这一过程叫做digg),就会从缓冲中脱颖而出,出现在digg页面上,否则就逐渐被挤出新闻源缓冲。直观的说, slashdot由管理员控制,而digg则将权力下放给用户。这两种不同的新闻提交机制,衍生出不同的社区文化。由于用户的高度自主性,以及和 blog、website的有效集成,digg对最新的网络资讯反应非常迅速,例如,某个新出现的网络服务开始发放邀请了,某个网络服务有了重要的更新, 某种新产品登场了等等。任何人都可以将任何有趣的资讯提交。
Friday, June 15, 2007
保健菘
生蠔瘦肉汤——补血养心
经常夜寐不能安枕,阴虚烦燥,最宜饮用生蠔瘦肉汤。功效:补血养心
材料:生蠔四只瘦肉三两圆肉三钱清水三碗调味料:盐少许
制法:生蠔去壳,用水冲洗。瘦肉及圆肉分别浸洗。煮滚三碗水後,将所有材料放入汤煲,以中火煲约两小时。
材料效用:生蠔:生蠔又名牡蛎,性味甘平,功能滋阴养血,宁心安神。圆肉:圆肉即龙眼果乾,具补血养心之效.对医治心悸功效尤著。
+++
经常看到广州的网友们吃汤浸胡椒蚝,试做了几次后觉得还不够味,于是尝试用我比较喜欢的冬阴功风味,加了少许米酒,又香又辣,对胃啦。
材料 :(1)生蚝用冰水泡洗干净,(2)冬阴功酱两大匙,米酒一大匙,清水两碗,朝天椒数条(极辣),葱花。
做法 :材料(2)烧滚,放进生蚝,熄火上盖浸泡约7-8分钟即可。生蚝非常的细嫩鲜美,搭配冬阴功汤的独特辛辣香气和朝天椒的致命火力,冬天不再寒冷,爬墙去也!
+++
姜葱海参生蚝汤
汤料:
生姜、生葱各一两,海参(已发)八两,生蚝一斤,盐少许。
制作:
①生姜、生葱各一两,海参、生蚝洗干净。生姜去皮,切块,拍烂;生葱去须根,切段;海参切块;生蚝用盐略腌,去黏液。
②瓦煲放入清水、海参,用猛火煲至水滚,加生姜、生蚝,改用中火煲两小时,放葱段和盐少许调味,即可食用。
+++
滋补极品:浮小麦黑豆生蚝汤
深秋正是食生蚝的好时节,其肉质柔软细腻,味道鲜美,是极好的滋补强壮食品。因其富含各种微量元素,能增强儿童的智力发育,故又有“益智海鲜”的美称,有的地方直呼其“海牛奶”。以中药浮小麦熟地圆肉煲生蚝,其汤如牛奶香滑,气味鲜美,有安神益智、滋补脏腑的功效。浮小麦性凉味甘,《本草纲目》曰 “益气除热,止自汗盗汗”。熟地能滋阴养血;圆肉能养心安神;黑豆能养颜乌发。
材料:浮小麦25克、黑豆50克、熟地15克、圆肉10克、生蚝肉500克、猪肉300克、陈皮1/4个、生姜3片。
烹制:各材料洗净,稍浸泡并陈皮去瓤,浮小麦、熟地用煲汤袋装起;生蚝肉洗净,置沸水中滚片刻(即“飞水”);猪肉洗净不刀切。一起与生姜放进瓦煲内,加入清水3000毫升(约12碗量),武火煲沸改文火煲2个半小时,取出浮小麦和熟地,调入适量食盐便可。
推荐:广东省中医院药师佘自强
经常夜寐不能安枕,阴虚烦燥,最宜饮用生蠔瘦肉汤。功效:补血养心
材料:生蠔四只瘦肉三两圆肉三钱清水三碗调味料:盐少许
制法:生蠔去壳,用水冲洗。瘦肉及圆肉分别浸洗。煮滚三碗水後,将所有材料放入汤煲,以中火煲约两小时。
材料效用:生蠔:生蠔又名牡蛎,性味甘平,功能滋阴养血,宁心安神。圆肉:圆肉即龙眼果乾,具补血养心之效.对医治心悸功效尤著。
+++
经常看到广州的网友们吃汤浸胡椒蚝,试做了几次后觉得还不够味,于是尝试用我比较喜欢的冬阴功风味,加了少许米酒,又香又辣,对胃啦。
材料 :(1)生蚝用冰水泡洗干净,(2)冬阴功酱两大匙,米酒一大匙,清水两碗,朝天椒数条(极辣),葱花。
做法 :材料(2)烧滚,放进生蚝,熄火上盖浸泡约7-8分钟即可。生蚝非常的细嫩鲜美,搭配冬阴功汤的独特辛辣香气和朝天椒的致命火力,冬天不再寒冷,爬墙去也!
+++
姜葱海参生蚝汤
汤料:
生姜、生葱各一两,海参(已发)八两,生蚝一斤,盐少许。
制作:
①生姜、生葱各一两,海参、生蚝洗干净。生姜去皮,切块,拍烂;生葱去须根,切段;海参切块;生蚝用盐略腌,去黏液。
②瓦煲放入清水、海参,用猛火煲至水滚,加生姜、生蚝,改用中火煲两小时,放葱段和盐少许调味,即可食用。
+++
滋补极品:浮小麦黑豆生蚝汤
深秋正是食生蚝的好时节,其肉质柔软细腻,味道鲜美,是极好的滋补强壮食品。因其富含各种微量元素,能增强儿童的智力发育,故又有“益智海鲜”的美称,有的地方直呼其“海牛奶”。以中药浮小麦熟地圆肉煲生蚝,其汤如牛奶香滑,气味鲜美,有安神益智、滋补脏腑的功效。浮小麦性凉味甘,《本草纲目》曰 “益气除热,止自汗盗汗”。熟地能滋阴养血;圆肉能养心安神;黑豆能养颜乌发。
材料:浮小麦25克、黑豆50克、熟地15克、圆肉10克、生蚝肉500克、猪肉300克、陈皮1/4个、生姜3片。
烹制:各材料洗净,稍浸泡并陈皮去瓤,浮小麦、熟地用煲汤袋装起;生蚝肉洗净,置沸水中滚片刻(即“飞水”);猪肉洗净不刀切。一起与生姜放进瓦煲内,加入清水3000毫升(约12碗量),武火煲沸改文火煲2个半小时,取出浮小麦和熟地,调入适量食盐便可。
推荐:广东省中医院药师佘自强
CPU的倍频
CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。
原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而 CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 = 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。
一个CPU默认的倍频只有一个,主板必须能支持这个倍频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,无法修改。
原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而 CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 = 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。
一个CPU默认的倍频只有一个,主板必须能支持这个倍频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,无法修改。
二级缓存容量
CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。
缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。
正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。
最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。
随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。
二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU 在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、 256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。
双核心CPU的二级缓存比较特殊,和以前的单核心CPU相比,最重要的就是两个内核的缓存所保存的数据要保持一致,否则就会出现错误,为了解决这个问题不同的CPU使用了不同的办法:
Intel双核心处理器的二级缓存
目前Intel的双核心CPU主要有Pentium D、Pentium EE、Core Duo三种,其中Pentium D、Pentium EE的二级缓存方式完全相同。Pentium D和Pentium EE的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,8xx系列的Smithfield核心CPU为每核心1MB,而9xx系列的 Presler核心CPU为每核心2MB。这种CPU内部的两个内核之间的缓存数据同步是依靠位于主板北桥芯片上的仲裁单元通过前端总线在两个核心之间传输来实现的,所以其数据延迟问题比较严重,性能并不尽如人意。
Core Duo使用的核心为Yonah,它的二级缓存则是两个核心共享2MB的二级缓存,共享式的二级缓存配合Intel的“Smart cache”共享缓存技术,实现了真正意义上的缓存数据同步,大幅度降低了数据延迟,减少了对前端总线的占用,性能表现不错,是目前双核心处理器上最先进的二级缓存架构。今后Intel的双核心处理器的二级缓存都会采用这种两个内核共享二级缓存的“Smart cache”共享缓存技术。
AMD双核心处理器的二级缓存
Athlon 64 X2 CPU的核心主要有Manchester和Toledo两种,他们的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,Manchester 核心为每核心512KB,而Toledo核心为每核心1MB。处理器内部的两个内核之间的缓存数据同步是依靠CPU内置的System Request Interface(系统请求接口,SRI)控制,传输在CPU内部即可实现。这样一来,不但CPU资源占用很小,而且不必占用内存总线资源,数据延迟也比Intel的Smithfield核心和Presler核心大为减少,协作效率明显胜过这两种核心。不过,由于这种方式仍然是两个内核的缓存相互独立,从架构上来看也明显不如以Yonah核心为代表的Intel的共享缓存技术Smart Cache。
缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。
正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。
最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。
随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。
二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU 在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、 256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。
双核心CPU的二级缓存比较特殊,和以前的单核心CPU相比,最重要的就是两个内核的缓存所保存的数据要保持一致,否则就会出现错误,为了解决这个问题不同的CPU使用了不同的办法:
Intel双核心处理器的二级缓存
目前Intel的双核心CPU主要有Pentium D、Pentium EE、Core Duo三种,其中Pentium D、Pentium EE的二级缓存方式完全相同。Pentium D和Pentium EE的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,8xx系列的Smithfield核心CPU为每核心1MB,而9xx系列的 Presler核心CPU为每核心2MB。这种CPU内部的两个内核之间的缓存数据同步是依靠位于主板北桥芯片上的仲裁单元通过前端总线在两个核心之间传输来实现的,所以其数据延迟问题比较严重,性能并不尽如人意。
Core Duo使用的核心为Yonah,它的二级缓存则是两个核心共享2MB的二级缓存,共享式的二级缓存配合Intel的“Smart cache”共享缓存技术,实现了真正意义上的缓存数据同步,大幅度降低了数据延迟,减少了对前端总线的占用,性能表现不错,是目前双核心处理器上最先进的二级缓存架构。今后Intel的双核心处理器的二级缓存都会采用这种两个内核共享二级缓存的“Smart cache”共享缓存技术。
AMD双核心处理器的二级缓存
Athlon 64 X2 CPU的核心主要有Manchester和Toledo两种,他们的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,Manchester 核心为每核心512KB,而Toledo核心为每核心1MB。处理器内部的两个内核之间的缓存数据同步是依靠CPU内置的System Request Interface(系统请求接口,SRI)控制,传输在CPU内部即可实现。这样一来,不但CPU资源占用很小,而且不必占用内存总线资源,数据延迟也比Intel的Smithfield核心和Presler核心大为减少,协作效率明显胜过这两种核心。不过,由于这种方式仍然是两个内核的缓存相互独立,从架构上来看也明显不如以Yonah核心为代表的Intel的共享缓存技术Smart Cache。
CPU超线程技术
CPU生产商为了提高CPU的性能,通常做法是提高CPU的时钟频率和增加缓存容量。不过目前CPU的频率越来越快,如果再通过提升CPU频率和增加缓存的方法来提高性能,往往会受到制造工艺上的限制以及成本过高的制约。
尽管提高CPU的时钟频率和增加缓存容量后的确可以改善性能,但这样的CPU性能提高在技术上存在较大的难度。实际上在应用中基于很多原因,CPU的执行单元都没有被充分使用。如果CPU不能正常读取数据(总线/内存的瓶颈),其执行单元利用率会明显下降。另外就是目前大多数执行线程缺乏ILP (Instruction-Level Parallelism,多种指令同时执行)支持。这些都造成了目前CPU的性能没有得到全部的发挥。因此,Intel则采用另一个思路去提高CPU的性能,让CPU可以同时执行多重线程,就能够让CPU发挥更大效率,即所谓“超线程(Hyper-Threading,简称“HT”)”技术。超线程技术就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高的CPU的运行效率。
采用超线程及时可在同一时间里,应用程序可以使用芯片的不同部分。虽然单线程芯片每秒钟能够处理成千上万条指令,但是在任一时刻只能够对一条指令进行操作。而超线程技术可以使芯片同时进行多线程处理,使芯片性能得到提升。
超线程技术是在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,理论上要像两颗CPU一样在同一时间执行两个线程,P4处理器需要多加入一个 Logical CPU Pointer(逻辑处理单元)。因此新一代的P4 HT的die的面积比以往的P4增大了5%。而其余部分如ALU(整数运算单元)、FPU(浮点运算单元)、L2 Cache(二级缓存)则保持不变,这些部分是被分享的。
虽然采用超线程技术能同时执行两个线程,但它并不象两个真正的CPU那样,每各CPU都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗CPU的性能。
英特尔P4 超线程有两个运行模式,Single Task Mode(单任务模式)及Multi Task Mode(多任务模式),当程序不支持Multi-Processing(多处理器作业)时,系统会停止其中一个逻辑CPU的运行,把资源集中于单个逻辑 CPU中,让单线程程序不会因其中一个逻辑CPU闲置而减低性能,但由于被停止运行的逻辑CPU还是会等待工作,占用一定的资源,因此Hyper- Threading CPU运行Single Task Mode程序模式时,有可能达不到不带超线程功能的CPU性能,但性能差距不会太大。也就是说,当运行单线程运用软件时,超线程技术甚至会降低系统性能,尤其在多线程操作系统运行单线程软件时容易出现此问题。
需要注意的是,含有超线程技术的CPU需要芯片组、软件支持,才能比较理想的发挥该项技术的优势。目前支持超线程技术的芯片组包括如:英特尔i845GE、PE及矽统iSR658 RDRAM、SiS645DX、SiS651可直接支持超线程;英特尔i845E、i850E通过升级BIOS后可支持;威盛P4X400、 P4X400A可支持,但未获得正式授权。操作系统如:Microsoft Windows XP、Microsoft Windows 2003,Linux kernel 2.4.x以后的版本也支持超线程技术。
尽管提高CPU的时钟频率和增加缓存容量后的确可以改善性能,但这样的CPU性能提高在技术上存在较大的难度。实际上在应用中基于很多原因,CPU的执行单元都没有被充分使用。如果CPU不能正常读取数据(总线/内存的瓶颈),其执行单元利用率会明显下降。另外就是目前大多数执行线程缺乏ILP (Instruction-Level Parallelism,多种指令同时执行)支持。这些都造成了目前CPU的性能没有得到全部的发挥。因此,Intel则采用另一个思路去提高CPU的性能,让CPU可以同时执行多重线程,就能够让CPU发挥更大效率,即所谓“超线程(Hyper-Threading,简称“HT”)”技术。超线程技术就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高的CPU的运行效率。
采用超线程及时可在同一时间里,应用程序可以使用芯片的不同部分。虽然单线程芯片每秒钟能够处理成千上万条指令,但是在任一时刻只能够对一条指令进行操作。而超线程技术可以使芯片同时进行多线程处理,使芯片性能得到提升。
超线程技术是在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,理论上要像两颗CPU一样在同一时间执行两个线程,P4处理器需要多加入一个 Logical CPU Pointer(逻辑处理单元)。因此新一代的P4 HT的die的面积比以往的P4增大了5%。而其余部分如ALU(整数运算单元)、FPU(浮点运算单元)、L2 Cache(二级缓存)则保持不变,这些部分是被分享的。
虽然采用超线程技术能同时执行两个线程,但它并不象两个真正的CPU那样,每各CPU都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗CPU的性能。
英特尔P4 超线程有两个运行模式,Single Task Mode(单任务模式)及Multi Task Mode(多任务模式),当程序不支持Multi-Processing(多处理器作业)时,系统会停止其中一个逻辑CPU的运行,把资源集中于单个逻辑 CPU中,让单线程程序不会因其中一个逻辑CPU闲置而减低性能,但由于被停止运行的逻辑CPU还是会等待工作,占用一定的资源,因此Hyper- Threading CPU运行Single Task Mode程序模式时,有可能达不到不带超线程功能的CPU性能,但性能差距不会太大。也就是说,当运行单线程运用软件时,超线程技术甚至会降低系统性能,尤其在多线程操作系统运行单线程软件时容易出现此问题。
需要注意的是,含有超线程技术的CPU需要芯片组、软件支持,才能比较理想的发挥该项技术的优势。目前支持超线程技术的芯片组包括如:英特尔i845GE、PE及矽统iSR658 RDRAM、SiS645DX、SiS651可直接支持超线程;英特尔i845E、i850E通过升级BIOS后可支持;威盛P4X400、 P4X400A可支持,但未获得正式授权。操作系统如:Microsoft Windows XP、Microsoft Windows 2003,Linux kernel 2.4.x以后的版本也支持超线程技术。
虚拟化技术
虚拟化是一个广义的术语,在计算机方面通常是指计算元件在虚拟的基础上而不是真实的基础上运行。虚拟化技术可以扩大硬件的容量,简化软件的重新配置过程。 CPU的虚拟化技术可以单CPU模拟多CPU并行,允许一个平台同时运行多个操作系统,并且应用程序都可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。
虚拟化技术与多任务以及超线程技术是完全不同的。多任务是指在一个操作系统中多个程序同时并行运行,而在虚拟化技术中,则可以同时运行多个操作系统,而且每一个操作系统中都有多个程序运行,每一个操作系统都运行在一个虚拟的CPU或者是虚拟主机上;而超线程技术只是单CPU模拟双CPU来平衡程序运行性能,这两个模拟出来的CPU是不能分离的,只能协同工作。
虚拟化技术也与目前VMware Workstation等同样能达到虚拟效果的软件不同,是一个巨大的技术进步,具体表现在减少软件虚拟机相关开销和支持更广泛的操作系统方面。
纯软件虚拟化解决方案存在很多限制。“客户”操作系统很多情况下是通过VMM(Virtual Machine Monitor,虚拟机监视器)来与硬件进行通信,由VMM来决定其对系统上所有虚拟机的访问。(注意,大多数处理器和内存访问独立于VMM,只在发生特定事件时才会涉及VMM,如页面错误。))的接口,模拟硬件环境。这种转换必然会增加系统的复杂性。此外,客户操作系统的支持受到虚拟机环境的能力限制,这会阻碍特定技术的部署,如64位客户操作系统。在纯软件解决方案中,软件堆栈增加的复杂性意味着,这些环境难于管理,因而会加大确保系统可靠性和安全性的困难。
而CPU的虚拟化技术是一种硬件方案,支持虚拟技术的CPU带有特别优化过的指令集来控制虚拟过程,通过这些指令集,VMM会很容易提高性能,相比软件的虚拟实现方式会很大程度上提高性能。虚拟化技术可提供基于芯片的功能,借助兼容VMM软件能够改进纯软件解决方案。由于虚拟化硬件可提供全新的架构,支持操作系统直接在上面运行,从而无需进行二进制转换,减少了相关的性能开销,极大简化了VMM设计,进而使VMM能够按通用标准进行编写,性能更加强大。另外,在纯软件VMM中,目前缺少对64位客户操作系统的支持,而随着64位处理器的不断普及,这一严重缺点也日益突出。而CPU的虚拟化技术除支持广泛的传统操作系统之外,还支持64位客户操作系统。
虚拟化技术是一套解决方案。完整的情况需要CPU、主板芯片组、BIOS和软件的支持,例如VMM软件或者某些操作系统本身。即使只是CPU支持虚拟化技术,在配合VMM的软件情况下,也会比完全不支持虚拟化技术的系统有更好的性能。
两大CPU巨头Intel和AMD都想方设法在虚拟化领域中占得先机,但是AMD的虚拟化技术在时间上要比Intel落后几个月。Intel自2005年末开始便在其处理器产品线中推广应用Intel Virtualization Technology(Intel VT)虚拟化技术。目前,Intel已经发布了具有Intel VT虚拟化技术的一系列处理器产品,包括桌面平台的Pentium 4 6X2系列、Pentium D 9X0系列和Pentium EE 9XX系列,还有Core Duo系列和Core Solo系列中的部分产品,以及服务器/工作站平台上的Xeon LV系列、Xeon 5000系列、Xeon 5100系列、Xeon MP 7000系列以及Itanium 2 9000系列;同时绝大多数的Intel下一代主流处理器,包括Merom核心移动处理器,Conroe核心桌面处理器,Woodcrest核心服务器处理器,以及基于Montecito核心的Itanium 2高端服务器处理器都将支持Intel VT虚拟化技术。
而AMD方面也已经发布了支持AMD Virtualization Technology(AMD VT)虚拟化技术的一系列处理器产品,包括Socket S1接口的Turion 64 X2系列以及Socket AM2接口的Athlon 64 X2系列和Athlon 64 FX系列等等,并且绝大多数的AMD下一代主流处理器,包括即将发布的Socket F接口的Opteron都将支持AMD VT虚拟化技术。
虚拟化技术与多任务以及超线程技术是完全不同的。多任务是指在一个操作系统中多个程序同时并行运行,而在虚拟化技术中,则可以同时运行多个操作系统,而且每一个操作系统中都有多个程序运行,每一个操作系统都运行在一个虚拟的CPU或者是虚拟主机上;而超线程技术只是单CPU模拟双CPU来平衡程序运行性能,这两个模拟出来的CPU是不能分离的,只能协同工作。
虚拟化技术也与目前VMware Workstation等同样能达到虚拟效果的软件不同,是一个巨大的技术进步,具体表现在减少软件虚拟机相关开销和支持更广泛的操作系统方面。
纯软件虚拟化解决方案存在很多限制。“客户”操作系统很多情况下是通过VMM(Virtual Machine Monitor,虚拟机监视器)来与硬件进行通信,由VMM来决定其对系统上所有虚拟机的访问。(注意,大多数处理器和内存访问独立于VMM,只在发生特定事件时才会涉及VMM,如页面错误。))的接口,模拟硬件环境。这种转换必然会增加系统的复杂性。此外,客户操作系统的支持受到虚拟机环境的能力限制,这会阻碍特定技术的部署,如64位客户操作系统。在纯软件解决方案中,软件堆栈增加的复杂性意味着,这些环境难于管理,因而会加大确保系统可靠性和安全性的困难。
而CPU的虚拟化技术是一种硬件方案,支持虚拟技术的CPU带有特别优化过的指令集来控制虚拟过程,通过这些指令集,VMM会很容易提高性能,相比软件的虚拟实现方式会很大程度上提高性能。虚拟化技术可提供基于芯片的功能,借助兼容VMM软件能够改进纯软件解决方案。由于虚拟化硬件可提供全新的架构,支持操作系统直接在上面运行,从而无需进行二进制转换,减少了相关的性能开销,极大简化了VMM设计,进而使VMM能够按通用标准进行编写,性能更加强大。另外,在纯软件VMM中,目前缺少对64位客户操作系统的支持,而随着64位处理器的不断普及,这一严重缺点也日益突出。而CPU的虚拟化技术除支持广泛的传统操作系统之外,还支持64位客户操作系统。
虚拟化技术是一套解决方案。完整的情况需要CPU、主板芯片组、BIOS和软件的支持,例如VMM软件或者某些操作系统本身。即使只是CPU支持虚拟化技术,在配合VMM的软件情况下,也会比完全不支持虚拟化技术的系统有更好的性能。
两大CPU巨头Intel和AMD都想方设法在虚拟化领域中占得先机,但是AMD的虚拟化技术在时间上要比Intel落后几个月。Intel自2005年末开始便在其处理器产品线中推广应用Intel Virtualization Technology(Intel VT)虚拟化技术。目前,Intel已经发布了具有Intel VT虚拟化技术的一系列处理器产品,包括桌面平台的Pentium 4 6X2系列、Pentium D 9X0系列和Pentium EE 9XX系列,还有Core Duo系列和Core Solo系列中的部分产品,以及服务器/工作站平台上的Xeon LV系列、Xeon 5000系列、Xeon 5100系列、Xeon MP 7000系列以及Itanium 2 9000系列;同时绝大多数的Intel下一代主流处理器,包括Merom核心移动处理器,Conroe核心桌面处理器,Woodcrest核心服务器处理器,以及基于Montecito核心的Itanium 2高端服务器处理器都将支持Intel VT虚拟化技术。
而AMD方面也已经发布了支持AMD Virtualization Technology(AMD VT)虚拟化技术的一系列处理器产品,包括Socket S1接口的Turion 64 X2系列以及Socket AM2接口的Athlon 64 X2系列和Athlon 64 FX系列等等,并且绝大多数的AMD下一代主流处理器,包括即将发布的Socket F接口的Opteron都将支持AMD VT虚拟化技术。
3D Now
由AMD公司提出的3DNow!指令集应该说出现在SSE指令集之前,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。
与Intel 公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
与Intel 公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
多媒体指令集
CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为CPU的指令集。
精简指令集的运用
在最初发明计算机的数十年里,随着计算机功能日趋增大,性能日趋变强,内部元器件也越来越多,指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作效率。后来经过研究发现,在计算机中,80%程序只用到了20%的指令集,基于这一发现,RISC精简指令集被提了出来,这是计算机系统架构的一次深刻革命。RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减少指令种类、规范指令格式和简化寻址方式,方便处理器内部的并行处理,提高VLSI器件的使用效率,从而大幅度地提高处理器的性能。
RISC指令集有许多特征,其中最重要的有:
1. 指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式。指令长度单一(一般4个字节),并且在字边界上对齐。字段位置、特别是操作码的位置是固定的。
2. 寻址方式简化:几乎所有指令都使用寄存器寻址方式,寻址方式总数一般不超过5个。其他更为复杂的寻址方式,如间接寻址等则由软件利用简单的寻址方式来合成。
3. 大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作,只以简单的Load和Store操作访问内存。因此,每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起。
4. 简化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计,不必使用大量专用寄存器,特别是允许以硬件线路来实现指令操作,而不必像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器,就能够快速地直接执行指令。
5. 便于使用VLSI技术:随着LSI和VLSI技术的发展,整个处理器(甚至多个处理器)都可以放在一个芯片上。RISC体系结构可以给设计单芯片处理器带来很多好处,有利于提高性能,简化VLSI芯片的设计和实现。基于VLSI技术,制造RISC处理器要比CISC处理器工作量小得多,成本也低得多。
6. 加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术,从而实现指令级并行操作,提高处理器的性能。目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。
正由于RISC体系所具有的优势,它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位。而在如今,在桌面领域,RISC也不断渗透,预计未来,RISC将要一统江湖。
CPU的扩展指令集
对于CPU来说,在基本功能方面,它们的差别并不太大,基本的指令集也都差不多,但是许多厂家为了提升某一方面性能,又开发了扩展指令集,扩展指令集定义了新的数据和指令,能够大大提高某方面数据处理能力,但必需要有软件支持。
MMX 指令集
MMX(Multi Media eXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术。MMX指令集中包括有57条多媒体指令,通过这些指令可以一次处理多个数据,在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下,就可以得到更高的性能。MMX的益处在于,当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是,问题也比较明显,那就是MMX指令集与x87浮点运算指令不能够同时执行,必须做密集式的交错切换才可以正常执行,这种情况就势必造成整个系统运行质量的下降。
SSE指令集
SSE(Streaming SIMD Extensions,单指令多数据流扩展)指令集是Intel在Pentium III处理器中率先推出的。其实,早在PIII正式推出之前,Intel公司就曾经通过各种渠道公布过所谓的KNI(Katmai New Instruction)指令集,这个指令集也就是SSE指令集的前身,并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集。究其背景,原来KNI指令集是Intel公司最早为其下一代芯片命名的指令集名称,而所谓的MMX2则完全是硬件评论家们和媒体凭感觉和印象对KNI的评价,Intel公司从未正式发布过关于MMX2的消息。
而最终推出的SSE指令集也就是所谓胜出的互联网SSE指令集。SSE指令集包括了70条指令,其中包含提高3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX 整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。S SE指令与3DNow!指令彼此互不兼容,但SSE包含了3DNow!技术的绝大部分功能,只是实现的方法不同。SSE兼容MMX指令,它可以通过 SIMD和单时钟周期并行处理多个浮点数据来有效地提高浮点运算速度。
SSE2指令集
SSE2(Streaming SIMD Extensions 2,Intel官方称为SIMD 流技术扩展 2或数据流单指令多数据扩展指令集 2)指令集是Intel公司在SSE指令集的基础上发展起来的。相比于SSE,SSE2使用了144个新增指令,扩展了MMX技术和SSE技术,这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整数指令从64位扩展到了128 位,使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以 SIMD格式同时执行两个浮点操作,提供双倍精度操作支持有助于加速内容创建、财务、工程和科学应用。除SSE2指令之外,最初的SSE指令也得到增强,通过支持多种数据类型(例如,双字和四字)的算术运算,支持灵活并且动态范围更广的计算功能。SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增强性能。Intel是从Willamette核心的Pentium 4开始支持SSE2指令集的,而AMD则是从K8架构的SledgeHammer核心的Opteron开始才支持SSE2指令集的。
SSE3指令集
SSE3(Streaming SIMD Extensions 3,Intel官方称为SIMD 流技术扩展 3或数据流单指令多数据扩展指令集 3)指令集是Intel公司在SSE2指令集的基础上发展起来的。相比于SSE2,SSE3在SSE2的基础上又增加了13个额外的SIMD指令。 SSE3 中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如媒体和游戏。这些新增指令强化了处理器在浮点转换至整数、复杂算法、视频编码、SIMD 浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体和游戏性能的目的。Intel是从Prescott核心的Pentium 4开始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的Opteron开始才支持SSE3的。但是需要注意的是,AMD所支持的 SSE3与Intel的SSE3并不完全相同,主要是删除了针对Intel超线程技术优化的部分指令。
3D Now !指令集
由AMD公司提出的3DNow!指令集应该说出现在SSE指令集之前,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。
与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
目前最新的Intel CPU可以支持SSE、SSE2、SSE3指令集。早期的AMD CPU仅支持3DNow!指令集,随着Intel的逐步授权,从Venice核心的Athlon 64开始,AMD的CPU不仅进一步发展了3DNow!指令集,并且可以支持Inel的SSE、SSE2、SSE3指令集。不过目前业界接受比较广泛的还是Intel的SSE系列指令集,AMD的3DNow!指令集应用比较少。
精简指令集的运用
在最初发明计算机的数十年里,随着计算机功能日趋增大,性能日趋变强,内部元器件也越来越多,指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作效率。后来经过研究发现,在计算机中,80%程序只用到了20%的指令集,基于这一发现,RISC精简指令集被提了出来,这是计算机系统架构的一次深刻革命。RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减少指令种类、规范指令格式和简化寻址方式,方便处理器内部的并行处理,提高VLSI器件的使用效率,从而大幅度地提高处理器的性能。
RISC指令集有许多特征,其中最重要的有:
1. 指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式。指令长度单一(一般4个字节),并且在字边界上对齐。字段位置、特别是操作码的位置是固定的。
2. 寻址方式简化:几乎所有指令都使用寄存器寻址方式,寻址方式总数一般不超过5个。其他更为复杂的寻址方式,如间接寻址等则由软件利用简单的寻址方式来合成。
3. 大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作,只以简单的Load和Store操作访问内存。因此,每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起。
4. 简化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计,不必使用大量专用寄存器,特别是允许以硬件线路来实现指令操作,而不必像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器,就能够快速地直接执行指令。
5. 便于使用VLSI技术:随着LSI和VLSI技术的发展,整个处理器(甚至多个处理器)都可以放在一个芯片上。RISC体系结构可以给设计单芯片处理器带来很多好处,有利于提高性能,简化VLSI芯片的设计和实现。基于VLSI技术,制造RISC处理器要比CISC处理器工作量小得多,成本也低得多。
6. 加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术,从而实现指令级并行操作,提高处理器的性能。目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。
正由于RISC体系所具有的优势,它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位。而在如今,在桌面领域,RISC也不断渗透,预计未来,RISC将要一统江湖。
CPU的扩展指令集
对于CPU来说,在基本功能方面,它们的差别并不太大,基本的指令集也都差不多,但是许多厂家为了提升某一方面性能,又开发了扩展指令集,扩展指令集定义了新的数据和指令,能够大大提高某方面数据处理能力,但必需要有软件支持。
MMX 指令集
MMX(Multi Media eXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术。MMX指令集中包括有57条多媒体指令,通过这些指令可以一次处理多个数据,在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下,就可以得到更高的性能。MMX的益处在于,当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是,问题也比较明显,那就是MMX指令集与x87浮点运算指令不能够同时执行,必须做密集式的交错切换才可以正常执行,这种情况就势必造成整个系统运行质量的下降。
SSE指令集
SSE(Streaming SIMD Extensions,单指令多数据流扩展)指令集是Intel在Pentium III处理器中率先推出的。其实,早在PIII正式推出之前,Intel公司就曾经通过各种渠道公布过所谓的KNI(Katmai New Instruction)指令集,这个指令集也就是SSE指令集的前身,并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集。究其背景,原来KNI指令集是Intel公司最早为其下一代芯片命名的指令集名称,而所谓的MMX2则完全是硬件评论家们和媒体凭感觉和印象对KNI的评价,Intel公司从未正式发布过关于MMX2的消息。
而最终推出的SSE指令集也就是所谓胜出的互联网SSE指令集。SSE指令集包括了70条指令,其中包含提高3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX 整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。S SE指令与3DNow!指令彼此互不兼容,但SSE包含了3DNow!技术的绝大部分功能,只是实现的方法不同。SSE兼容MMX指令,它可以通过 SIMD和单时钟周期并行处理多个浮点数据来有效地提高浮点运算速度。
SSE2指令集
SSE2(Streaming SIMD Extensions 2,Intel官方称为SIMD 流技术扩展 2或数据流单指令多数据扩展指令集 2)指令集是Intel公司在SSE指令集的基础上发展起来的。相比于SSE,SSE2使用了144个新增指令,扩展了MMX技术和SSE技术,这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整数指令从64位扩展到了128 位,使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以 SIMD格式同时执行两个浮点操作,提供双倍精度操作支持有助于加速内容创建、财务、工程和科学应用。除SSE2指令之外,最初的SSE指令也得到增强,通过支持多种数据类型(例如,双字和四字)的算术运算,支持灵活并且动态范围更广的计算功能。SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增强性能。Intel是从Willamette核心的Pentium 4开始支持SSE2指令集的,而AMD则是从K8架构的SledgeHammer核心的Opteron开始才支持SSE2指令集的。
SSE3指令集
SSE3(Streaming SIMD Extensions 3,Intel官方称为SIMD 流技术扩展 3或数据流单指令多数据扩展指令集 3)指令集是Intel公司在SSE2指令集的基础上发展起来的。相比于SSE2,SSE3在SSE2的基础上又增加了13个额外的SIMD指令。 SSE3 中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如媒体和游戏。这些新增指令强化了处理器在浮点转换至整数、复杂算法、视频编码、SIMD 浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体和游戏性能的目的。Intel是从Prescott核心的Pentium 4开始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的Opteron开始才支持SSE3的。但是需要注意的是,AMD所支持的 SSE3与Intel的SSE3并不完全相同,主要是删除了针对Intel超线程技术优化的部分指令。
3D Now !指令集
由AMD公司提出的3DNow!指令集应该说出现在SSE指令集之前,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。
与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
目前最新的Intel CPU可以支持SSE、SSE2、SSE3指令集。早期的AMD CPU仅支持3DNow!指令集,随着Intel的逐步授权,从Venice核心的Athlon 64开始,AMD的CPU不仅进一步发展了3DNow!指令集,并且可以支持Inel的SSE、SSE2、SSE3指令集。不过目前业界接受比较广泛的还是Intel的SSE系列指令集,AMD的3DNow!指令集应用比较少。
CPU外频
外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。
说到处理器外频,就要提到与之密切相关的两个概念:倍频与主频,主频就是CPU的时钟频率;倍频即主频与外频之比的倍数。主频、外频、倍频,其关系式:主频=外频×倍频。
在486 之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。倍频技术就是使外部设备可以工作在一个较低外频上,而CPU主频是外频的倍数。
在Pentium 时代,CPU的外频一般是60/66MHz,从Pentium Ⅱ 350开始,CPU外频提高到100MHz,目前CPU外频已经达到了200MHz。由于正常情况下外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高电脑整体运行速度影响较大。
外频与前端总线(FSB)频率很容易被混为一谈。前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说, 100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。
一个CPU默认的外频只有一个,主板必须能支持这个外频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,所以超频时经常需要超外频。外频改变后系统很多其他频率也会改变,除了CPU主频外,前端总线频率、PCI等各种接口频率,包括硬盘接口的频率都会改变,都可能造成系统无法正常运行。当然有些主板可以提供锁定各种接口频率的功能,对成功超频有很大帮助。超频有风险,甚至会损坏计算机硬件。
说到处理器外频,就要提到与之密切相关的两个概念:倍频与主频,主频就是CPU的时钟频率;倍频即主频与外频之比的倍数。主频、外频、倍频,其关系式:主频=外频×倍频。
在486 之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。倍频技术就是使外部设备可以工作在一个较低外频上,而CPU主频是外频的倍数。
在Pentium 时代,CPU的外频一般是60/66MHz,从Pentium Ⅱ 350开始,CPU外频提高到100MHz,目前CPU外频已经达到了200MHz。由于正常情况下外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高电脑整体运行速度影响较大。
外频与前端总线(FSB)频率很容易被混为一谈。前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说, 100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。
一个CPU默认的外频只有一个,主板必须能支持这个外频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,所以超频时经常需要超外频。外频改变后系统很多其他频率也会改变,除了CPU主频外,前端总线频率、PCI等各种接口频率,包括硬盘接口的频率都会改变,都可能造成系统无法正常运行。当然有些主板可以提供锁定各种接口频率的功能,对成功超频有很大帮助。超频有风险,甚至会损坏计算机硬件。
双绞线类型
(1) 双绞线
双绞线的英文名字叫Twist-Pair。是综合布线工程中最常用的一种传输介质。
双绞线采用了一对互相绝缘的金属导线互相绞合的方式来抵御一部分外界电磁波干扰。把两根绝缘的铜导线按一定密度互相绞在一起,可以降低信号干扰的程度,每一根导线在传输中辐射的电波会被另一根线上发出的电波抵消。“双绞线”的名字也是由此而来。双绞线一般由两根22-26号绝缘铜导线相互缠绕而成,实际使用时,双绞线是由多对双绞线一起包在一个绝缘电缆套管里的。典型的双绞线有四对的,也有更多对双绞线放在一个电缆套管里的。这些我们称之为双绞线电缆。在双绞线电缆(也称双扭线电缆)内,不同线对具有不同的扭绞长度,一般地说,扭绞长度在38.1cm至14cm内,按逆时针方向扭绞。相临线对的扭绞长度在 12.7cm以上,一般扭线的越密其抗干扰能力就越强,与其他传输介质相比,双绞线在传输距离,信道宽度和数据传输速度等方面均受到一定限制,但价格较为低廉。
双绞线常见的有3类线,5类线和超5类线,以及最新的6类线,前者线径细而后者线径粗,型号如下:
1)一类线:主要用于传输语音(一类标准主要用于八十年代初之前的电话线缆),不同于数据传输。
2)二类线:传输频率为1MHZ,用于语音传输和最高传输速率4Mbps的数据传输,常见于使用4MBPS规范令牌传递协议的旧的令牌网。
3)三类线:指目前在ANSI和EIA/TIA568标准中指定的电缆,该电缆的传输频率16MHz,用于语音传输及最高传输速率为10Mbps的数据传输主要用于10BASE--T。
4)四类线:该类电缆的传输频率为20MHz,用于语音传输和最高传输速率16Mbps的数据传输主要用于基于令牌的局域网和 10BASE-T/100BASE-T。
5)五类线:该类电缆增加了绕线密度,外套一种高质量的绝缘材料,传输率为100MHz,用于语音传输和最高传输速率为10Mbps的数据传输,主要用于100BASE-T和10BASE-T网络。这是最常用的以太网电缆。
6)超五类线:超5类具有衰减小,串扰少,并且具有更高的衰减与串扰的比值(ACR)和信噪比(Structural Return Loss)、更小的时延误差,性能得到很大提高。超5类线主要用于千兆位以太网(1000Mbps)。
7)六类线:该类电缆的传输频率为1MHz~250MHz,六类布线系统在200MHz时综合衰减串扰比(PS-ACR)应该有较大的余量,它提供2倍于超五类的带宽。六类布线的传输性能远远高于超五类标准,最适用于传输速率高于1Gbps的应用。六类与超五类的一个重要的不同点在于:改善了在串扰以及回波损耗方面的性能,对于新一代全双工的高速网络应用而言,优良的回波损耗性能是极重要的。六类标准中取消了基本链路模型,布线标准采用星形的拓扑结构,要求的布线距离为:永久链路的长度不能超过90m,信道长度不能超过100m。
目前,双绞线可分为非屏蔽双绞线(UTP=UNSHILDED TWISTED PAIR)和屏蔽双绞线(STP=SHIELDED TWISTED PAIR)。屏蔽双绞线电缆的外层由铝铂包裹,以减小辐射,但并不能完全消除辐射,屏蔽双绞线价格相对较高,安装时要比非屏蔽双绞线电缆困难。非屏蔽双绞线电缆具有以下优点:
(1)无屏蔽外套,直径小,节省所占用的空间;
(2)重量轻,易弯曲,易安装;
(3)将串扰减至最小或加以消除;
(4)具有阻燃性;
(5)具有独立性和灵活性,适用于结构化综合布线。
在这两大类中又分100欧姆电缆,双体电缆,大对数电缆,150欧姆屏蔽电缆等。
双绞线的英文名字叫Twist-Pair。是综合布线工程中最常用的一种传输介质。
双绞线采用了一对互相绝缘的金属导线互相绞合的方式来抵御一部分外界电磁波干扰。把两根绝缘的铜导线按一定密度互相绞在一起,可以降低信号干扰的程度,每一根导线在传输中辐射的电波会被另一根线上发出的电波抵消。“双绞线”的名字也是由此而来。双绞线一般由两根22-26号绝缘铜导线相互缠绕而成,实际使用时,双绞线是由多对双绞线一起包在一个绝缘电缆套管里的。典型的双绞线有四对的,也有更多对双绞线放在一个电缆套管里的。这些我们称之为双绞线电缆。在双绞线电缆(也称双扭线电缆)内,不同线对具有不同的扭绞长度,一般地说,扭绞长度在38.1cm至14cm内,按逆时针方向扭绞。相临线对的扭绞长度在 12.7cm以上,一般扭线的越密其抗干扰能力就越强,与其他传输介质相比,双绞线在传输距离,信道宽度和数据传输速度等方面均受到一定限制,但价格较为低廉。
双绞线常见的有3类线,5类线和超5类线,以及最新的6类线,前者线径细而后者线径粗,型号如下:
1)一类线:主要用于传输语音(一类标准主要用于八十年代初之前的电话线缆),不同于数据传输。
2)二类线:传输频率为1MHZ,用于语音传输和最高传输速率4Mbps的数据传输,常见于使用4MBPS规范令牌传递协议的旧的令牌网。
3)三类线:指目前在ANSI和EIA/TIA568标准中指定的电缆,该电缆的传输频率16MHz,用于语音传输及最高传输速率为10Mbps的数据传输主要用于10BASE--T。
4)四类线:该类电缆的传输频率为20MHz,用于语音传输和最高传输速率16Mbps的数据传输主要用于基于令牌的局域网和 10BASE-T/100BASE-T。
5)五类线:该类电缆增加了绕线密度,外套一种高质量的绝缘材料,传输率为100MHz,用于语音传输和最高传输速率为10Mbps的数据传输,主要用于100BASE-T和10BASE-T网络。这是最常用的以太网电缆。
6)超五类线:超5类具有衰减小,串扰少,并且具有更高的衰减与串扰的比值(ACR)和信噪比(Structural Return Loss)、更小的时延误差,性能得到很大提高。超5类线主要用于千兆位以太网(1000Mbps)。
7)六类线:该类电缆的传输频率为1MHz~250MHz,六类布线系统在200MHz时综合衰减串扰比(PS-ACR)应该有较大的余量,它提供2倍于超五类的带宽。六类布线的传输性能远远高于超五类标准,最适用于传输速率高于1Gbps的应用。六类与超五类的一个重要的不同点在于:改善了在串扰以及回波损耗方面的性能,对于新一代全双工的高速网络应用而言,优良的回波损耗性能是极重要的。六类标准中取消了基本链路模型,布线标准采用星形的拓扑结构,要求的布线距离为:永久链路的长度不能超过90m,信道长度不能超过100m。
目前,双绞线可分为非屏蔽双绞线(UTP=UNSHILDED TWISTED PAIR)和屏蔽双绞线(STP=SHIELDED TWISTED PAIR)。屏蔽双绞线电缆的外层由铝铂包裹,以减小辐射,但并不能完全消除辐射,屏蔽双绞线价格相对较高,安装时要比非屏蔽双绞线电缆困难。非屏蔽双绞线电缆具有以下优点:
(1)无屏蔽外套,直径小,节省所占用的空间;
(2)重量轻,易弯曲,易安装;
(3)将串扰减至最小或加以消除;
(4)具有阻燃性;
(5)具有独立性和灵活性,适用于结构化综合布线。
在这两大类中又分100欧姆电缆,双体电缆,大对数电缆,150欧姆屏蔽电缆等。
CPU核心电压
CPU的工作电压(Supply Voltage),即CPU正常工作所需的电压。任何电器在工作的时候都需要电,自然也有对应额定电压,CPU也不例外。目前CPU的工作电压有一个非常明显的下降趋势,较低的工作电压主要三个优点:
采用低电压的CPU的芯片总功耗降低了。功耗降低,系统的运行成本就相应降低,这对于便携式和移动系统来说非常重要
功耗降低,致使发热量减少,运行温度不过高的CPU可以与系统更好的配合;降低电压是CPU主频提高的重要因素之一。
CPU的工作电压分为两个方面,CPU的核心电压与I/O电压。核心电压即驱动CPU核心芯片的电压,I/O电压则指驱动I/O电路的电压。通常CPU的核心电压小于等于I/O电压。
早期CPU(286~486时代)的核心电压与I/O一致,通常为5V,由于当时的制造工艺相对落后,以致CPU的发热量过大,导致其寿命缩短。不过那时的CPU集成度很低,而目前的CPU集成度相当高,因此显得现在的CPU发热量更大。随着CPU的制造工艺提高,近年来各种CPU的工作电压有逐步下降的趋势,目前台式机用CPU核电压通常为2V以内,笔记本专用CPU的工作电压相对更低,从而达到大幅减少功耗的目的,以延长电池的使用寿命,并降低了 CPU发热量。而且现在的CPU会通过特殊的电压ID(VID)引脚来指示主板中嵌入的电压调节器自动设置正确的电压级别。
许多面向新款CPU的主板都会提供特殊的跳线或者软件设置,通过这些跳线或软件,可以根据具体需要手动调节CPU的工作电压。很多实验表明在超频的时候适度提高核心电压,可以加强CPU内部信号,对CPU性能的提升会有很大帮助——但这样也会提高CPU的功耗,影响其寿命及发热量,建议一般用户不要进行此方面的操作。
此外从Vinice核心的Athlon 64开始,AMD在Socket 939接口的处理器上采用了动态电压,在CPU封装上不再标明CPU的默认核心电压,同一核心的CPU其核心电压是可变的,不同的CPU可能会有不同的核心电压:1.30V、1.35V或1.40V。
采用低电压的CPU的芯片总功耗降低了。功耗降低,系统的运行成本就相应降低,这对于便携式和移动系统来说非常重要
功耗降低,致使发热量减少,运行温度不过高的CPU可以与系统更好的配合;降低电压是CPU主频提高的重要因素之一。
CPU的工作电压分为两个方面,CPU的核心电压与I/O电压。核心电压即驱动CPU核心芯片的电压,I/O电压则指驱动I/O电路的电压。通常CPU的核心电压小于等于I/O电压。
早期CPU(286~486时代)的核心电压与I/O一致,通常为5V,由于当时的制造工艺相对落后,以致CPU的发热量过大,导致其寿命缩短。不过那时的CPU集成度很低,而目前的CPU集成度相当高,因此显得现在的CPU发热量更大。随着CPU的制造工艺提高,近年来各种CPU的工作电压有逐步下降的趋势,目前台式机用CPU核电压通常为2V以内,笔记本专用CPU的工作电压相对更低,从而达到大幅减少功耗的目的,以延长电池的使用寿命,并降低了 CPU发热量。而且现在的CPU会通过特殊的电压ID(VID)引脚来指示主板中嵌入的电压调节器自动设置正确的电压级别。
许多面向新款CPU的主板都会提供特殊的跳线或者软件设置,通过这些跳线或软件,可以根据具体需要手动调节CPU的工作电压。很多实验表明在超频的时候适度提高核心电压,可以加强CPU内部信号,对CPU性能的提升会有很大帮助——但这样也会提高CPU的功耗,影响其寿命及发热量,建议一般用户不要进行此方面的操作。
此外从Vinice核心的Athlon 64开始,AMD在Socket 939接口的处理器上采用了动态电压,在CPU封装上不再标明CPU的默认核心电压,同一核心的CPU其核心电压是可变的,不同的CPU可能会有不同的核心电压:1.30V、1.35V或1.40V。
CPU超线程技术
CPU生产商为了提高CPU的性能,通常做法是提高CPU的时钟频率和增加缓存容量。不过目前CPU的频率越来越快,如果再通过提升CPU频率和增加缓存的方法来提高性能,往往会受到制造工艺上的限制以及成本过高的制约。
尽管提高CPU的时钟频率和增加缓存容量后的确可以改善性能,但这样的CPU性能提高在技术上存在较大的难度。实际上在应用中基于很多原因,CPU的执行单元都没有被充分使用。如果CPU不能正常读取数据(总线/内存的瓶颈),其执行单元利用率会明显下降。另外就是目前大多数执行线程缺乏ILP (Instruction-Level Parallelism,多种指令同时执行)支持。这些都造成了目前CPU的性能没有得到全部的发挥。因此,Intel则采用另一个思路去提高CPU的性能,让CPU可以同时执行多重线程,就能够让CPU发挥更大效率,即所谓“超线程(Hyper-Threading,简称“HT”)”技术。超线程技术就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高的CPU的运行效率。
采用超线程及时可在同一时间里,应用程序可以使用芯片的不同部分。虽然单线程芯片每秒钟能够处理成千上万条指令,但是在任一时刻只能够对一条指令进行操作。而超线程技术可以使芯片同时进行多线程处理,使芯片性能得到提升。
超线程技术是在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,理论上要像两颗CPU一样在同一时间执行两个线程,P4处理器需要多加入一个 Logical CPU Pointer(逻辑处理单元)。因此新一代的P4 HT的die的面积比以往的P4增大了5%。而其余部分如ALU(整数运算单元)、FPU(浮点运算单元)、L2 Cache(二级缓存)则保持不变,这些部分是被分享的。
虽然采用超线程技术能同时执行两个线程,但它并不象两个真正的CPU那样,每各CPU都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗CPU的性能。
英特尔P4 超线程有两个运行模式,Single Task Mode(单任务模式)及Multi Task Mode(多任务模式),当程序不支持Multi-Processing(多处理器作业)时,系统会停止其中一个逻辑CPU的运行,把资源集中于单个逻辑 CPU中,让单线程程序不会因其中一个逻辑CPU闲置而减低性能,但由于被停止运行的逻辑CPU还是会等待工作,占用一定的资源,因此Hyper- Threading CPU运行Single Task Mode程序模式时,有可能达不到不带超线程功能的CPU性能,但性能差距不会太大。也就是说,当运行单线程运用软件时,超线程技术甚至会降低系统性能,尤其在多线程操作系统运行单线程软件时容易出现此问题。
需要注意的是,含有超线程技术的CPU需要芯片组、软件支持,才能比较理想的发挥该项技术的优势。目前支持超线程技术的芯片组包括如:英特尔i845GE、PE及矽统iSR658 RDRAM、SiS645DX、SiS651可直接支持超线程;英特尔i845E、i850E通过升级BIOS后可支持;威盛P4X400、 P4X400A可支持,但未获得正式授权。操作系统如:Microsoft Windows XP、Microsoft Windows 2003,Linux kernel 2.4.x以后的版本也支持超线程技术。
尽管提高CPU的时钟频率和增加缓存容量后的确可以改善性能,但这样的CPU性能提高在技术上存在较大的难度。实际上在应用中基于很多原因,CPU的执行单元都没有被充分使用。如果CPU不能正常读取数据(总线/内存的瓶颈),其执行单元利用率会明显下降。另外就是目前大多数执行线程缺乏ILP (Instruction-Level Parallelism,多种指令同时执行)支持。这些都造成了目前CPU的性能没有得到全部的发挥。因此,Intel则采用另一个思路去提高CPU的性能,让CPU可以同时执行多重线程,就能够让CPU发挥更大效率,即所谓“超线程(Hyper-Threading,简称“HT”)”技术。超线程技术就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了CPU的闲置时间,提高的CPU的运行效率。
采用超线程及时可在同一时间里,应用程序可以使用芯片的不同部分。虽然单线程芯片每秒钟能够处理成千上万条指令,但是在任一时刻只能够对一条指令进行操作。而超线程技术可以使芯片同时进行多线程处理,使芯片性能得到提升。
超线程技术是在一颗CPU同时执行多个程序而共同分享一颗CPU内的资源,理论上要像两颗CPU一样在同一时间执行两个线程,P4处理器需要多加入一个 Logical CPU Pointer(逻辑处理单元)。因此新一代的P4 HT的die的面积比以往的P4增大了5%。而其余部分如ALU(整数运算单元)、FPU(浮点运算单元)、L2 Cache(二级缓存)则保持不变,这些部分是被分享的。
虽然采用超线程技术能同时执行两个线程,但它并不象两个真正的CPU那样,每各CPU都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗CPU的性能。
英特尔P4 超线程有两个运行模式,Single Task Mode(单任务模式)及Multi Task Mode(多任务模式),当程序不支持Multi-Processing(多处理器作业)时,系统会停止其中一个逻辑CPU的运行,把资源集中于单个逻辑 CPU中,让单线程程序不会因其中一个逻辑CPU闲置而减低性能,但由于被停止运行的逻辑CPU还是会等待工作,占用一定的资源,因此Hyper- Threading CPU运行Single Task Mode程序模式时,有可能达不到不带超线程功能的CPU性能,但性能差距不会太大。也就是说,当运行单线程运用软件时,超线程技术甚至会降低系统性能,尤其在多线程操作系统运行单线程软件时容易出现此问题。
需要注意的是,含有超线程技术的CPU需要芯片组、软件支持,才能比较理想的发挥该项技术的优势。目前支持超线程技术的芯片组包括如:英特尔i845GE、PE及矽统iSR658 RDRAM、SiS645DX、SiS651可直接支持超线程;英特尔i845E、i850E通过升级BIOS后可支持;威盛P4X400、 P4X400A可支持,但未获得正式授权。操作系统如:Microsoft Windows XP、Microsoft Windows 2003,Linux kernel 2.4.x以后的版本也支持超线程技术。
几种电器千万别放卧室
科技的进步带来了生活上的便利,也带来了越来越多的电磁污染。什么是电磁污染?电视、电冰箱、电脑、手机等工作时,产生的电磁波就是电磁辐射。但电磁辐射 和电磁污染不同,电磁辐射无处不在,而电磁污染只有在电磁辐射超过一定强度后,才会致人头疼、失眠、记忆衰退、视力下降、血压升高或下降等,严重的可能引 起部分人员流产、白内障,甚至诱发癌症。
研究证实:磁场会增加儿童得癌的风险,
而且从2 mG(毫高斯)起,风险开始加倍。事实上,长期处在磁场超过1mG的地方你就已经受到辐射污染了,而实际上在家中所测到的数据远远高于这个数字。
卧室:�床头音响�勿放床头
床铺大概要算是测量家中电磁场的重头戏。如果长期睡在高磁场的地方,可以想见这影响有多大。由此也可以知道所谓的�床头音响�是不应该放置在床头的。 原则上任何的电器用品都应该远离你的床铺。游人总抱怨睡眠质量不好,其实很可能就是宾馆的床铺附近放置了电暖器、电风扇、空气清新机、空调等电器作怪,要 知道,一个小型电暖器的磁场就可以高达200mG以上。微波炉:微波对小男孩伤害大一些微波炉的磁场极高。与其他家电用品不同的是,即使仅是插着电没有使 用它,有的机型前方按键板的磁场仍可高达30~60mG,使用时的磁场则超过200mG。另外,研究显示,这些泄漏的微波对男性生殖系统的伤害尤其大,因 此小男孩更应避开。
冰箱:把散热管上灰尘吸掉
电冰箱是厨房中一个高磁场的所在,特别是在冰箱正在运作、发出嗡嗡声时,冰箱后侧或下方的散热管线释放的磁场更是高出前方几十甚至几百倍(冰箱前后范 围测得1~9mG,后方正中央可高达300mG)。如果冰箱的效率不高,嗡嗡声就特别久,也特别大,如果用吸尘器把散热管线上的灰尘吸掉,就会提高冰箱的 效率,也减低家中的磁场。
非照明用的小型灭蚊灯,可别小看它,其磁场也可以超过500mG,应该把它放在墙角。
很多家长让孩童在电视前玩耍,或是靠得太近观看,要知道发育中的小孩受磁场的干扰比成人更大。
电脑:液晶显示器辐射较小
如果你的电脑桌太小,迫使你与屏幕的距离太近,不妨将显示器尽可能向后退,当然,换成液晶显示器,辐射就相当小了。至于电脑主机,一般人也容易忽视而常常 放置在腿边的位置,以方便插入磁盘。主机前方磁场可超过4 mG,越靠后面磁场越高,所以能放远一点就尽量放远一点。电脑桌下方常常有一堆电线及变压器要尽可能地远离你的脚。
手机充电器:与之保持距离
带变压器的低压电源一般磁场都很高,在接线的地方可以测到300mG以上,不过距离仅30厘米远就马上掉到1mG以下了。手机充电器、便携式单放机在插座上的变压器磁场也较高,所以要保持距离,以策安全。
磁场的穿透性很强,千万不要忽视了相邻房间或楼上楼下的影响。特别是一般电器的管线都接在后方,所以常常测得最高的指数是在电器的正后方,那么与高磁场一 墙之隔的位置就要注意了。如果你经常坐在沙发上,你头后面是墙,而隔壁邻居的电视的尾部刚好对着你的头,那你可就遭殃了。
曾有人在孩子床上枕头的位置测到1.6mG的磁场强度,最后发现是因为相邻的主卧房有电视开着,而这电视就在小孩床头的正后方;当一个书桌设在冰箱所 靠的墙后方时,书桌的磁场在2~7mG之间。所以,沙发、座椅和枕头都最好不靠近与邻居相隔的墙,因为你不知道墙那边会有什么。
多吃胡萝卜加强抗辐射能力
电磁辐射对人的影响虽普遍存在,却并不可怕。不同的人或同一人在不同年龄段对电磁辐射的承受能力是不一样的,即使在超标环境下,也不意味着所有人都会 得病,但对老人、儿童、孕妇或装有心脏起搏器的病人,对电磁辐射敏感人群及长期在超剂量电磁辐射环境中工作的人来说,应采取防患措施。
●不要把家用电器摆放得过于集中或经常一起使用,特别是电视、电脑、电冰箱不宜集中摆放在卧室里,以免使自己暴露在超剂量辐射的危险中。
●各种家用电器、办公设备、移动电话等都应尽量避免长时间操作。
●当电器暂停使用时,最好不让它们处于待机状态,因为此时可产生较微弱的电磁场。
●对各种电器的使用,应保持一定的安全距离。
●佩带心脏起搏器的患者以及抵抗力较弱的孕妇、儿童、老人等,应配备阻挡电磁辐射的屏蔽防护服。
●手机接通瞬间释放的电磁辐射最大,最好在手机响过一两秒或电话两次铃声间歇中接听电话。
●多吃胡萝卜、西红柿、海带、瘦肉、动物肝脏等富含维生素A、C和蛋白质的食物,加强肌体抵抗电磁辐射的能力。
研究证实:磁场会增加儿童得癌的风险,
而且从2 mG(毫高斯)起,风险开始加倍。事实上,长期处在磁场超过1mG的地方你就已经受到辐射污染了,而实际上在家中所测到的数据远远高于这个数字。
卧室:�床头音响�勿放床头
床铺大概要算是测量家中电磁场的重头戏。如果长期睡在高磁场的地方,可以想见这影响有多大。由此也可以知道所谓的�床头音响�是不应该放置在床头的。 原则上任何的电器用品都应该远离你的床铺。游人总抱怨睡眠质量不好,其实很可能就是宾馆的床铺附近放置了电暖器、电风扇、空气清新机、空调等电器作怪,要 知道,一个小型电暖器的磁场就可以高达200mG以上。微波炉:微波对小男孩伤害大一些微波炉的磁场极高。与其他家电用品不同的是,即使仅是插着电没有使 用它,有的机型前方按键板的磁场仍可高达30~60mG,使用时的磁场则超过200mG。另外,研究显示,这些泄漏的微波对男性生殖系统的伤害尤其大,因 此小男孩更应避开。
冰箱:把散热管上灰尘吸掉
电冰箱是厨房中一个高磁场的所在,特别是在冰箱正在运作、发出嗡嗡声时,冰箱后侧或下方的散热管线释放的磁场更是高出前方几十甚至几百倍(冰箱前后范 围测得1~9mG,后方正中央可高达300mG)。如果冰箱的效率不高,嗡嗡声就特别久,也特别大,如果用吸尘器把散热管线上的灰尘吸掉,就会提高冰箱的 效率,也减低家中的磁场。
非照明用的小型灭蚊灯,可别小看它,其磁场也可以超过500mG,应该把它放在墙角。
很多家长让孩童在电视前玩耍,或是靠得太近观看,要知道发育中的小孩受磁场的干扰比成人更大。
电脑:液晶显示器辐射较小
如果你的电脑桌太小,迫使你与屏幕的距离太近,不妨将显示器尽可能向后退,当然,换成液晶显示器,辐射就相当小了。至于电脑主机,一般人也容易忽视而常常 放置在腿边的位置,以方便插入磁盘。主机前方磁场可超过4 mG,越靠后面磁场越高,所以能放远一点就尽量放远一点。电脑桌下方常常有一堆电线及变压器要尽可能地远离你的脚。
手机充电器:与之保持距离
带变压器的低压电源一般磁场都很高,在接线的地方可以测到300mG以上,不过距离仅30厘米远就马上掉到1mG以下了。手机充电器、便携式单放机在插座上的变压器磁场也较高,所以要保持距离,以策安全。
磁场的穿透性很强,千万不要忽视了相邻房间或楼上楼下的影响。特别是一般电器的管线都接在后方,所以常常测得最高的指数是在电器的正后方,那么与高磁场一 墙之隔的位置就要注意了。如果你经常坐在沙发上,你头后面是墙,而隔壁邻居的电视的尾部刚好对着你的头,那你可就遭殃了。
曾有人在孩子床上枕头的位置测到1.6mG的磁场强度,最后发现是因为相邻的主卧房有电视开着,而这电视就在小孩床头的正后方;当一个书桌设在冰箱所 靠的墙后方时,书桌的磁场在2~7mG之间。所以,沙发、座椅和枕头都最好不靠近与邻居相隔的墙,因为你不知道墙那边会有什么。
多吃胡萝卜加强抗辐射能力
电磁辐射对人的影响虽普遍存在,却并不可怕。不同的人或同一人在不同年龄段对电磁辐射的承受能力是不一样的,即使在超标环境下,也不意味着所有人都会 得病,但对老人、儿童、孕妇或装有心脏起搏器的病人,对电磁辐射敏感人群及长期在超剂量电磁辐射环境中工作的人来说,应采取防患措施。
●不要把家用电器摆放得过于集中或经常一起使用,特别是电视、电脑、电冰箱不宜集中摆放在卧室里,以免使自己暴露在超剂量辐射的危险中。
●各种家用电器、办公设备、移动电话等都应尽量避免长时间操作。
●当电器暂停使用时,最好不让它们处于待机状态,因为此时可产生较微弱的电磁场。
●对各种电器的使用,应保持一定的安全距离。
●佩带心脏起搏器的患者以及抵抗力较弱的孕妇、儿童、老人等,应配备阻挡电磁辐射的屏蔽防护服。
●手机接通瞬间释放的电磁辐射最大,最好在手机响过一两秒或电话两次铃声间歇中接听电话。
●多吃胡萝卜、西红柿、海带、瘦肉、动物肝脏等富含维生素A、C和蛋白质的食物,加强肌体抵抗电磁辐射的能力。
Thursday, June 14, 2007
现代父亲该具备的27种素质
现代父亲该具备怎样的素质?在走访了五城市的不同人群之后,我们总结出了新父亲的27种必备素质。这些来自民间的观点,并不权威,却透着朴素的深刻。也许读者您对这些观点仍有保留意见,也许您还有别的见解,或者,您对父亲这个角色有话要说,那么,把您想说的话赶快告诉我们吧。 因为,父亲是一个和我们每个人都息息相关的角色。
NO.1 责任心。
NO.2 幽默感。
NO.3 兴趣广泛。
NO.4 大度。
NO.5 童心。
NO.6 情趣。
NO.7 效率。
NO.9 平等。
NO.10 不俗气。
NO.11 放松。
NO.12 父爱无言。
NO.13 理性。
NO.14 自信。
NO.15 诚信。
NO.16 分担家务。
NO.17 不向孩子隐瞒生活中的阴暗面。
NO.18 将时间献给孩子。
NO.19 给孩子朗读。
NO.20 说悄悄话。
NO.21 自我示范。
NO.22 给孩子安全感。
NO.23 告诉孩子你爱他。
NO.24 与时俱进。
NO.25 耐心。
NO.26 身体健康。
NO.27 懂点艺术。
来源:《父母》
NO.1 责任心。
NO.2 幽默感。
NO.3 兴趣广泛。
NO.4 大度。
NO.5 童心。
NO.6 情趣。
NO.7 效率。
NO.9 平等。
NO.10 不俗气。
NO.11 放松。
NO.12 父爱无言。
NO.13 理性。
NO.14 自信。
NO.15 诚信。
NO.16 分担家务。
NO.17 不向孩子隐瞒生活中的阴暗面。
NO.18 将时间献给孩子。
NO.19 给孩子朗读。
NO.20 说悄悄话。
NO.21 自我示范。
NO.22 给孩子安全感。
NO.23 告诉孩子你爱他。
NO.24 与时俱进。
NO.25 耐心。
NO.26 身体健康。
NO.27 懂点艺术。
来源:《父母》
感觉到tivoli, openview, bmc的末日
比较好的opensource 网管工具, snmp, 对于系统监控和数据库监控比较弱. 如果有mib for oracle, ...
mib for unix, ...
以下是open 品牌
OpenNMS
Nagios
Zabbix
Zenoss
mib for unix, ...
以下是open 品牌
OpenNMS
Nagios
Zabbix
Zenoss
因为简单,所以伟大
—Web 2.0及其商业价值
裴有福 《经济观察报》2005.11.28
当公司秘书小丽需要查找什么信息的时候,她以前总是去新浪这样的大网站“翻箱倒柜”。前些天,技术部的同事帮她装上了聚合阅读器,她发现很多信息会照着她的喜好自动送上门来,比以前方便多了。她认识“臭味相投”的网友更方便了,有什么要问的,往往“嚷嚷一声”就能解决。
小丽并不知道什么 Web 2.0,但是 Web 2.0 事实上已经改变了她的生活。
什么是 Web 2.0?
物理学家 Tim Berners-Lee 发明超文本标记语言(HTML),初衷不过是为了方便文档的管理。但他创造的超链接简单而有效地连接了全世界,并通过图形浏览器的迅速流行而引发了互联网革命,他本人也成为 Web 的缔造者。
Web 大大简化了互联网的使用,轻击鼠标便能环游全球。然而人们逐渐发现,在内容的产生和发布上,技术仍然是一个巨大的障碍,必须由专业人士完成。随着互联网的普及,越来越多的普通网民希望主动参与到网络中。这样的需求直接导致了 Web 2.0 的产生。
迄今为止,Web 2.0 并没有一个公认的清晰定义。这并不是它的缺陷,恰恰是它有着巨大发展潜力的表征。它的内涵和外延都存在无限的想象空间。
Web 2.0 其实是一个人文概念,而不是技术概念。它并不包含任何具体的技术。可以说,Web 2.0 是一种理想,升华现有Web的理想。它并不是技术上的进步,而是观念和理念上的升级。所以 Web 2.0 不是革命,并不否定和排斥 Web 1.0,而是在继承的基础上发展。
Web 1.0 强调技术,Web 2.0 强调人;Web 1.0 把内容链接在一起,Web 2.0 重视内容后面的人。二者都是平台,但 Web 1.0 是集中化的私有平台,体现为服务器、网站和门户,是大企业的资源垄断;Web 2.0 则是公共平台,任何人都不拥有它,在网民的参与和分享下建立,是集体智慧的结晶。
Web 1.0 时代,人们主要通过浏览器浏览大量网页;Web 2.0 时代仍然可以浏览网页,但是人们更愿意通过 Web 来分享各自的内容,使网络的互动性更强,更像一个软件工具,而不只是静止不动的网页。
Web 2.0 引起什么变化?
Web 2.0 决不是一个“宏大叙事”的“筐”,什么都往里装。把互联网看作一个整体,就会发现 Web 2.0 已经带来很多的变化。
1. 平台变迁
Web 的核心曾经是浏览器和 Web 服务器,它们控制了 Web 显示内容和应用程序标准。但它们早已退化为普通软件,核心价值转移到 Web 服务上,它成为真正的 Web 平台。
2. 以人为本
从前,“没人知道你是一条狗”;现在,“没人不知道你是一条狗”。通过 Web 2.0,人们可以清晰地看到动态的帖子和记录后面的人。写网志的博客、社交网络里的友邻,都是活生生的人。
3. 用户参与
用户不仅使用浏览器读取网页,而且借助在线或离线的阅读器订阅个性化内容。他们也是内容的生产者,Web 2.0 需要他们的集体智慧。他们甚至被视作合作开发者,那些始终处于测试中的 Web 服务随时根据他们的体验作出调整。
4. 数据核心
数据成为 Web 的核心,而不再是任何软件或硬件。没有数据就没有一切,控制数据就能控制市场。数据库管理是 Web 2.0 的核心能力,软件已经让位于“信件(infoware)”。
5. 应用开发
Web 应用不仅突破一切软硬件平台的制约,而且不再受开发周期的制约。人们崇尚快速开发、立即上线、马上可用、持续完善的轻量级开发模式。
Web 2.0 能赚钱吗?
Web 2.0 决不是制钞机,任何商业模式只要贴上 Web 2.0 标签就能创造奇迹。但是 Web 2.0 关注人、关注用户,努力为用户提供各种自我表达和创造价值的可能性,鼓励他们去沟通、去分享,是注定拥有商业价值的。
1. 利用 Web 2.0 理念改善经营
对于传统企业来说,Web 2.0 可能是商业规则的破坏者。但是“毒药”也许恰恰就是“美食”,Web 2.0 在文化上、技术上都提供了改善经营的方法论。例如:
* 产品服务化。不再希望从单件产品上获取暴利,而是通过扩大规模来换取高效率、低成本。
* 信任用户,而非自身优势。如果用户能够主动参与,其集体智慧将产生巨大价值,其自我服务本身就构成优势。
* 改进产品生产模式。采用可随时调整的、轻量级的灵活开发方法,将促进商业模式的创新。
* 控制数据。独有的、难以再造的数据源,就是财源。
2. Web 2.0 公司的赢利模式
Web 2.0 公司仍然是互联网公司,它主要的赢利模式还是广告、收费服务和增值业务等少数几种。但只要准确切入一个用户群,尽快发布用户可以参与的简单免费服务,就能迅速创建一个轻型公司,用少量的资源投入产生巨大的价值回报。
Web 2.0 公司通过深入挖掘其社交信任关系,与相关企业合作建立产业链,就能快速形成商圈、实现赢利。这是 Web 1.0 公司所无法做到的,即使它给自己戴上一顶 Web 2.0 的帽子。
3. Web 2.0 为个人创造机会
个人化、社会性是 Web 2.0 的基本特征,它为每个个体提供了越来越多的可能。个人价值社会化,就能创造无限的机会。
对于普通网民来说,参与 Web 2.0 是非常容易的,因为 Web 2.0 的伟大之处,正在于其简单性。爱逛商场的公司秘书小丽,最近就找到了自己的 Web 2.0 的结合点:利用社交网络共享商店打折信息。
裴有福 《经济观察报》2005.11.28
当公司秘书小丽需要查找什么信息的时候,她以前总是去新浪这样的大网站“翻箱倒柜”。前些天,技术部的同事帮她装上了聚合阅读器,她发现很多信息会照着她的喜好自动送上门来,比以前方便多了。她认识“臭味相投”的网友更方便了,有什么要问的,往往“嚷嚷一声”就能解决。
小丽并不知道什么 Web 2.0,但是 Web 2.0 事实上已经改变了她的生活。
什么是 Web 2.0?
物理学家 Tim Berners-Lee 发明超文本标记语言(HTML),初衷不过是为了方便文档的管理。但他创造的超链接简单而有效地连接了全世界,并通过图形浏览器的迅速流行而引发了互联网革命,他本人也成为 Web 的缔造者。
Web 大大简化了互联网的使用,轻击鼠标便能环游全球。然而人们逐渐发现,在内容的产生和发布上,技术仍然是一个巨大的障碍,必须由专业人士完成。随着互联网的普及,越来越多的普通网民希望主动参与到网络中。这样的需求直接导致了 Web 2.0 的产生。
迄今为止,Web 2.0 并没有一个公认的清晰定义。这并不是它的缺陷,恰恰是它有着巨大发展潜力的表征。它的内涵和外延都存在无限的想象空间。
Web 2.0 其实是一个人文概念,而不是技术概念。它并不包含任何具体的技术。可以说,Web 2.0 是一种理想,升华现有Web的理想。它并不是技术上的进步,而是观念和理念上的升级。所以 Web 2.0 不是革命,并不否定和排斥 Web 1.0,而是在继承的基础上发展。
Web 1.0 强调技术,Web 2.0 强调人;Web 1.0 把内容链接在一起,Web 2.0 重视内容后面的人。二者都是平台,但 Web 1.0 是集中化的私有平台,体现为服务器、网站和门户,是大企业的资源垄断;Web 2.0 则是公共平台,任何人都不拥有它,在网民的参与和分享下建立,是集体智慧的结晶。
Web 1.0 时代,人们主要通过浏览器浏览大量网页;Web 2.0 时代仍然可以浏览网页,但是人们更愿意通过 Web 来分享各自的内容,使网络的互动性更强,更像一个软件工具,而不只是静止不动的网页。
Web 2.0 引起什么变化?
Web 2.0 决不是一个“宏大叙事”的“筐”,什么都往里装。把互联网看作一个整体,就会发现 Web 2.0 已经带来很多的变化。
1. 平台变迁
Web 的核心曾经是浏览器和 Web 服务器,它们控制了 Web 显示内容和应用程序标准。但它们早已退化为普通软件,核心价值转移到 Web 服务上,它成为真正的 Web 平台。
2. 以人为本
从前,“没人知道你是一条狗”;现在,“没人不知道你是一条狗”。通过 Web 2.0,人们可以清晰地看到动态的帖子和记录后面的人。写网志的博客、社交网络里的友邻,都是活生生的人。
3. 用户参与
用户不仅使用浏览器读取网页,而且借助在线或离线的阅读器订阅个性化内容。他们也是内容的生产者,Web 2.0 需要他们的集体智慧。他们甚至被视作合作开发者,那些始终处于测试中的 Web 服务随时根据他们的体验作出调整。
4. 数据核心
数据成为 Web 的核心,而不再是任何软件或硬件。没有数据就没有一切,控制数据就能控制市场。数据库管理是 Web 2.0 的核心能力,软件已经让位于“信件(infoware)”。
5. 应用开发
Web 应用不仅突破一切软硬件平台的制约,而且不再受开发周期的制约。人们崇尚快速开发、立即上线、马上可用、持续完善的轻量级开发模式。
Web 2.0 能赚钱吗?
Web 2.0 决不是制钞机,任何商业模式只要贴上 Web 2.0 标签就能创造奇迹。但是 Web 2.0 关注人、关注用户,努力为用户提供各种自我表达和创造价值的可能性,鼓励他们去沟通、去分享,是注定拥有商业价值的。
1. 利用 Web 2.0 理念改善经营
对于传统企业来说,Web 2.0 可能是商业规则的破坏者。但是“毒药”也许恰恰就是“美食”,Web 2.0 在文化上、技术上都提供了改善经营的方法论。例如:
* 产品服务化。不再希望从单件产品上获取暴利,而是通过扩大规模来换取高效率、低成本。
* 信任用户,而非自身优势。如果用户能够主动参与,其集体智慧将产生巨大价值,其自我服务本身就构成优势。
* 改进产品生产模式。采用可随时调整的、轻量级的灵活开发方法,将促进商业模式的创新。
* 控制数据。独有的、难以再造的数据源,就是财源。
2. Web 2.0 公司的赢利模式
Web 2.0 公司仍然是互联网公司,它主要的赢利模式还是广告、收费服务和增值业务等少数几种。但只要准确切入一个用户群,尽快发布用户可以参与的简单免费服务,就能迅速创建一个轻型公司,用少量的资源投入产生巨大的价值回报。
Web 2.0 公司通过深入挖掘其社交信任关系,与相关企业合作建立产业链,就能快速形成商圈、实现赢利。这是 Web 1.0 公司所无法做到的,即使它给自己戴上一顶 Web 2.0 的帽子。
3. Web 2.0 为个人创造机会
个人化、社会性是 Web 2.0 的基本特征,它为每个个体提供了越来越多的可能。个人价值社会化,就能创造无限的机会。
对于普通网民来说,参与 Web 2.0 是非常容易的,因为 Web 2.0 的伟大之处,正在于其简单性。爱逛商场的公司秘书小丽,最近就找到了自己的 Web 2.0 的结合点:利用社交网络共享商店打折信息。
Wednesday, June 13, 2007
有意思
百姓忽悠政府,叫犯罪
政府忽悠百姓,叫政策
百姓忽悠领导,叫捣乱
领导忽悠百姓,叫号召
孩子忽悠父母,叫欺骗
父母忽悠孩子,叫教育
男人忽悠女人,叫调戏
女人忽悠男人,叫勾引
男女相互忽悠,叫爱情
百姓忽悠百姓,叫生意
领导忽悠领导,叫交易
国家忽悠国家,叫外交
政府忽悠百姓,叫政策
百姓忽悠领导,叫捣乱
领导忽悠百姓,叫号召
孩子忽悠父母,叫欺骗
父母忽悠孩子,叫教育
男人忽悠女人,叫调戏
女人忽悠男人,叫勾引
男女相互忽悠,叫爱情
百姓忽悠百姓,叫生意
领导忽悠领导,叫交易
国家忽悠国家,叫外交
Tuesday, June 12, 2007
开发工具/语言和成功案例
* CodeIgniter on PHP
* Catalyst on Perl
* Django on Python
* Django on Python with Psyco
* RubyOnRails on Ruby
* Symfony on PHP
* TurboGears on Python
另外, 我加上perl 的slashdot.org
这些都是经验谈,
* Catalyst on Perl
* Django on Python
* Django on Python with Psyco
* RubyOnRails on Ruby
* Symfony on PHP
* TurboGears on Python
另外, 我加上perl 的slashdot.org
这些都是经验谈,
小香港, 大世界
抄录一篇文章...
1998年香港政府稳定股市的经验
www.hexun.com 【2007.06.11 09:00】来源: 中国经营报
作者:余永定 何帆
政府应如何管理金融市场是一个极具挑战性的实际问题。中国金融市场正处在改革开放的过程当中,不可避免地要遇到很多意想不到的事件。我们今天邀请经济学家余永定、何帆回顾香港历史上发生的金融危机,以及香港政府在处理危机中所采取的方式方法,对目前我们管理金融市场时政府究竟应如何定位具有一定的借鉴意义。
政府是否需要对股市进行干预
5月30日,随着印花税的上调,中国股市出现暴跌行情。中国的股市泡沫必须抑制,对此不应该动摇。但是,股市暴跌,并由此而导致股市长期低迷则更是我们所不希望看到的。中国经济的基本面是良好的,中国大多数投资者对中国股市的长期前景是乐观的。可以相信,经过此次调整,中国股市将会沿着更为健康的方向发展。尽管如此,我们也必须看到,股市走势充满不确定性,谁也不能保证股市在今后一段时间里会发生什么事情。万一出现暴跌行情,我们应该怎么办?
政府是否需要对股市进行干预,这是一个富有争议的问题。认为政府不宜干预股市的人认为,股市泡沫难以确认,当股市上涨的时候,很难区分这是由于基本面变化所引起还是泡沫因素。如果仅仅因为股市涨跌就进行干预,势必会出现判断失误,引起不必要的震荡。很多经济学家认为,遏制通货膨胀才是货币当局的任务,只有当资产价格波动会影响预期通货膨胀时,才应被关注。我们认为,制度建设是中国股市稳定发展的基础。在正常情况下,政府只是市场的“守夜人”,政府应该尽量减少对于股票市场的干预。但是,在非常时期,政府必须“该出手时就出手”。政府绝对不能对股市的暴涨暴跌听之任之。
未来,股市行情的变动对今后相当一段时间内股市的发展会产生决定性的影响。一些朋友认为,股市将先跌后扬,股票价格将会重新暴涨。另一些朋友则认为,股市将持续大跌,从此一蹶不振。我们的看法是,不管之后会出现什么行情,中国政府手中有足够的牌可打,是完全可以控制局面的。经过本次调整,中国股市将走向良性发展的轨道。对中国股市发展持悲观态度是完全没有必要的。
在股市发展面临重大转折关头的此时此刻,认真汲取香港特区政府1998 年8月成功护盘的经验是十分必要的。香港经验告诉我们,股市暴跌时,政府不应该惧怕对股市直接进行干预,在必要时甚至应该敢于采取非常规的干预措施。与此同时,政府还必须事先制定好周密的干预计划,对于可能出现的各种情况都有从容应对之策。如果政府抱定必要时一定干预的态度,而公众又相信政府的决心和能力,则持续暴跌就根本不会发生,而政府的实际干预也就变得完全不必要了。
香港1998年成功护盘的经验
1997年10月22日,国际炒家大举沽空港股和港汇。由于外汇市场上港币抛售压力剧增,香港银行间拆借市场利息率急剧上升,导致香港恒生股票指数在1997年10月23日由11700点暴跌至10600点,跌幅达10.4%。到10月28日,香港股市累积损失约1000亿美元。1998年国际炒家卷土重来,在1月、4月和8月对香港发动了三次大规模“狙击”,其中尤以8月份的规模最大。8月11日恒生股指跌破7000点大关,收盘于6779点;8月13日收盘于6660点的最低点。
国际炒家在香港进行投机的手法大致有三种:在外汇即期市场和远期市场沽空港币;在香港股票市场沽空股票现货和恒指期货;事先沽空恒指期货,然后在外汇远期沽空港币,港币远期汇率的下跌必然导致利息率的上升,而利息率的上升将导致股市下跌,从而使早已沽空恒指期货的炒家获利。在1998年8月份港币攻守战中,国际炒家的“狙击”手法同他们在1997年10月以来所使用的手法并无多少不同。然而,香港金融管理当局对国际炒家的方针政策却发生了某些显著变化。
首先,香港金融管理当局由对外汇市场不直接干预变为动用外汇储备入市直接干预。联系汇率制度的最主要特点之一就是:官方固定汇率是通过银行和公众的套戥(内地一般译做套利)活动实现的。换言之,官方固定汇率是通过市场力量自动维持的,不需要中央银行进行任何形式的干预。在1997年10月香港股灾发生期间,香港金融管理局并未直接干预外汇市场,而是用减少同业拆借市场的流动性,从而提高利息率的办法保卫港币汇率。但是,在1998年8月份的保卫战中,香港金融管理局则直接干预外汇市场,动用外汇储备买入港币以维持港币对美元汇率不变。
其次,香港金融管理当局由专守汇率、不干预股市变为干预股市,而且是直接干预。其具体做法是动用外汇基金大量买入股票为股市托盘。在1997年10月香港股灾发生期间,香港金融管理局认为股票价格下跌在一定程度上是对前一段时期股票价格过高的一种纠正,而对股市未加任何干预。在1998年8月特区政府不但进行了干预,而且是同国际炒家“对盘”,即进行最直接的干预。8月14日香港特区政府介入股市及期市,大量买进股票以遏制股票市场的跌势。香港特区政府在干预股市及期市时,买入多只可影响股市升跌的蓝筹股,并买进8月份期指好仓(long position)合约,推高指数,同时大量吸纳9月份期指淡仓(short position),以扩大9月份与8月份的指数差距,从而增加国际炒家的转仓(roll over)成本。当天,恒生指数上升564点以7244点报收。此后恒生指数逐步回升到7800点。8月28日,被沽空的股份交易额达9.3亿美元;期指成交数目达4.4万张。香港特区政府则利用外汇基金买进了价值几十亿美元的股票。是日,股票市场的成交量高达790亿港元,比香港股票市场成交量的原历史最高纪录(467亿港元)高出70%。最后,恒生指数以7829点报收,比前日跌93点。除买入股票外,香港特区政府还使用了其他政策手段。8月28日,为了增加国际炒家沽空港元的借贷成本,香港特区政府抽高了由隔夜到六个月的银行间拆借利息率。一周的拆借利息率最高曾达30%,比前一天高出八成。
再次,在这次金融攻守战中,香港金融当局不但介入汇市、股市,不但作为市场的参与方介入汇市、股市,而且利用法律所赋予的权力,通过改变游戏规则等方式,主动出击打击国际炒家。8月30日香港期货交易所配合金管局推出三项措施以对付国际炒家:(1)向持有超过一万张期指合约的大户增收按金,每张期指合约由8万港元加至12万港元,增幅五成;(2)客户持有超过250张期指或恒指期权,经纪人必须申报(以往则是500张以上才申报);(3)经纪人须申报持有250张以上期指或期权的大户的身份(以往则只须申报交易额)。
9月1日,国际炒家开始在汇市平仓离场。自1997年10月以来国际炒家对香港联系汇率制度的第四次进攻又以香港特区政府的胜利而告结束。
香港一向以自由经济著称,香港政府并没有干预市场的传统,但为什么1998年香港政府会直接入市干预呢?在1997年10月香港股灾暂告平息之后,一般分析家认为,12000点是比较符合香港经济基本面的股票价格。1998年的情况则是,香港经济已陷入衰退,世界经济的整体形势亦不令人乐观。投资者预期股市还将进一步下跌。有人甚至认为恒指要下降到3200点才能稳住,而不动产价格还将从8月份的水平进一步下跌50%。这种说法无疑是信口雌黄。但问题是,西方的权威性传媒在宣传这种观点,而许多人相信这种观点。在这种情况下,通过所谓“羊群效应”,不管股票的实际价值是多少,如果股民相信恒生股指将要跌到3000点,恒生股指就会跌到3000点。支撑股市的唯一间接手段是降息,但在当时情况下,由于首要目标是维持港币的固定汇率不变,对香港特区政府来说,不存在降息这种选择。如果金管局不干预,香港股市一定暴跌,炒家一定会在香港股市大赚其利。而香港股市的进一步暴跌将使香港银行业、房地产业和实质经济的形势进一步恶化。香港特区秉承自由市场经济的传统,在并非万不得已的情况下是不会干预市场的。但是,当既不能用降息的方法应对股市暴跌,其他方法又不能解燃眉之急的时候,香港特区政府就义无反顾地动用外汇基金直接买进股票进行托市了。
由于香港特区政府对股市的直接干预,一向以实行“经济自由主义”而备受西方赞扬的香港特区政府遭到西方报刊的猛烈攻讦。《新闻周刊》指责香港特区政府同马来西亚总理马哈蒂尔唱一个调子、把自己的错误推给外人。甚至指责他们继承了共产党中央计划人员的精神与实践。然而,同市场原教旨主义的预言相反, 1998年8月香港特区政府对股市的直接干预取得了成功。香港股市没有崩盘,香港地区的市场经济体制也没有受到伤害。
不必惧怕必要的干预
中国的股市是转型时期的股市。避免股市的大起大落对于中国股票市场的健康发展具有非常重要的意义。市场原教旨主义者声称任何政府干预都是有害的,其实这种论调对于市场经济的发展才是有害的。如果政府过度干预,变成了“掠夺之手”,那么对市场的发育肯定是毁灭性的,但是,市场经济的发展从来都没有离开过政府的影响,好的政府政策对于市场的发展是“支援的手”。为了稳定股市,促进股市的健康发展,政府需要进行必要的干预。香港政府的护盘经验说明,为了维护股市的稳定,决策者必须避免各种教条主义的束缚,不做宋襄公。及时的政策是最好的政策。相反,优柔寡断、犹豫不决往往贻误时机,酿成大错。日本就曾经有过这样的教训。
20世纪80年代,当日本的资产市场已经出现泡沫的征兆时,日本政府并未给予足够的重视。日本当局在资产价格泡沫初期主要是运用道义劝告来限制银行贷款,但与此同时,日本货币政策依然极为宽松。从1986年1月到1987年12月,日本银行分五次将贴现率降到了2.5%,降息主要是为了刺激国内需求和遏制日元升值的势头。从1987年第二季度开始日本银行希望通过劝说商业银行来控制贷款,但这一措施收效甚微。于是日本银行开始加大动作,1989年5月31日贴现率被提高到3.25%,随后贴息率进一步提高,在1990年8月30日达到了6%。过于激烈的紧缩政策终于刺破了资产价格的泡沫,并使得日本经济从此一蹶不振。
美国20世纪20年代也经历了前所未有的股市泡沫,1928年美联储开始限制投机性的银行贷款,对于过度发放证券贷款的银行拒绝给予贴现,但迟迟不肯提高贴现率。美联储紧缩信贷的措施并未影响到股市的继续上涨,因为股市投资者可以从其他渠道得到融资。当股市于1929年10月出现崩盘之后,纽约储备银行迅速反应,在公开市场上买入1.6亿美元的债券,担当了最终贷款人的角色,化解了纽约金融市场上的流动性不足和恐慌。但是,美联储却制止了纽约储备银行的干预,而且,尽管经济已经陷入衰退,美联储仍然坚持紧缩性的货币政策。美联储的不作为和错误的政策最终引发了大规模的银行破产和持久的美国经济大萧条。
转型时期的股市调控,需要采取转型时期的政策。中国不能直接照搬发达国家的经验,而是必须采取适合中国国情的政策。最优的政策目前仍然是不存在的,因为政府需要提高决策的技巧,市场也需要变得更加成熟,这是一个从干中学的过程。在这个过程中,最重要的是政府要有决心和魄力。和市场的沟通与交流对于提高政策的可信度是非常重要的,但如果变成市场的“俘虏”则是可悲的,政府需要维护政策的独立性和灵活性。政府的各个部门之间需要更好地配合和协调,并尽可能地使决策远离各种利益集团的影响,远离教条主义和民粹主义的干扰。最后,我们希望再次强调,执行机关必须事先想清楚各种可能性,制定好周密的预案,勿忘“魔鬼隐藏在细节中”。
1998年香港政府稳定股市的经验
www.hexun.com 【2007.06.11 09:00】来源: 中国经营报
作者:余永定 何帆
政府应如何管理金融市场是一个极具挑战性的实际问题。中国金融市场正处在改革开放的过程当中,不可避免地要遇到很多意想不到的事件。我们今天邀请经济学家余永定、何帆回顾香港历史上发生的金融危机,以及香港政府在处理危机中所采取的方式方法,对目前我们管理金融市场时政府究竟应如何定位具有一定的借鉴意义。
政府是否需要对股市进行干预
5月30日,随着印花税的上调,中国股市出现暴跌行情。中国的股市泡沫必须抑制,对此不应该动摇。但是,股市暴跌,并由此而导致股市长期低迷则更是我们所不希望看到的。中国经济的基本面是良好的,中国大多数投资者对中国股市的长期前景是乐观的。可以相信,经过此次调整,中国股市将会沿着更为健康的方向发展。尽管如此,我们也必须看到,股市走势充满不确定性,谁也不能保证股市在今后一段时间里会发生什么事情。万一出现暴跌行情,我们应该怎么办?
政府是否需要对股市进行干预,这是一个富有争议的问题。认为政府不宜干预股市的人认为,股市泡沫难以确认,当股市上涨的时候,很难区分这是由于基本面变化所引起还是泡沫因素。如果仅仅因为股市涨跌就进行干预,势必会出现判断失误,引起不必要的震荡。很多经济学家认为,遏制通货膨胀才是货币当局的任务,只有当资产价格波动会影响预期通货膨胀时,才应被关注。我们认为,制度建设是中国股市稳定发展的基础。在正常情况下,政府只是市场的“守夜人”,政府应该尽量减少对于股票市场的干预。但是,在非常时期,政府必须“该出手时就出手”。政府绝对不能对股市的暴涨暴跌听之任之。
未来,股市行情的变动对今后相当一段时间内股市的发展会产生决定性的影响。一些朋友认为,股市将先跌后扬,股票价格将会重新暴涨。另一些朋友则认为,股市将持续大跌,从此一蹶不振。我们的看法是,不管之后会出现什么行情,中国政府手中有足够的牌可打,是完全可以控制局面的。经过本次调整,中国股市将走向良性发展的轨道。对中国股市发展持悲观态度是完全没有必要的。
在股市发展面临重大转折关头的此时此刻,认真汲取香港特区政府1998 年8月成功护盘的经验是十分必要的。香港经验告诉我们,股市暴跌时,政府不应该惧怕对股市直接进行干预,在必要时甚至应该敢于采取非常规的干预措施。与此同时,政府还必须事先制定好周密的干预计划,对于可能出现的各种情况都有从容应对之策。如果政府抱定必要时一定干预的态度,而公众又相信政府的决心和能力,则持续暴跌就根本不会发生,而政府的实际干预也就变得完全不必要了。
香港1998年成功护盘的经验
1997年10月22日,国际炒家大举沽空港股和港汇。由于外汇市场上港币抛售压力剧增,香港银行间拆借市场利息率急剧上升,导致香港恒生股票指数在1997年10月23日由11700点暴跌至10600点,跌幅达10.4%。到10月28日,香港股市累积损失约1000亿美元。1998年国际炒家卷土重来,在1月、4月和8月对香港发动了三次大规模“狙击”,其中尤以8月份的规模最大。8月11日恒生股指跌破7000点大关,收盘于6779点;8月13日收盘于6660点的最低点。
国际炒家在香港进行投机的手法大致有三种:在外汇即期市场和远期市场沽空港币;在香港股票市场沽空股票现货和恒指期货;事先沽空恒指期货,然后在外汇远期沽空港币,港币远期汇率的下跌必然导致利息率的上升,而利息率的上升将导致股市下跌,从而使早已沽空恒指期货的炒家获利。在1998年8月份港币攻守战中,国际炒家的“狙击”手法同他们在1997年10月以来所使用的手法并无多少不同。然而,香港金融管理当局对国际炒家的方针政策却发生了某些显著变化。
首先,香港金融管理当局由对外汇市场不直接干预变为动用外汇储备入市直接干预。联系汇率制度的最主要特点之一就是:官方固定汇率是通过银行和公众的套戥(内地一般译做套利)活动实现的。换言之,官方固定汇率是通过市场力量自动维持的,不需要中央银行进行任何形式的干预。在1997年10月香港股灾发生期间,香港金融管理局并未直接干预外汇市场,而是用减少同业拆借市场的流动性,从而提高利息率的办法保卫港币汇率。但是,在1998年8月份的保卫战中,香港金融管理局则直接干预外汇市场,动用外汇储备买入港币以维持港币对美元汇率不变。
其次,香港金融管理当局由专守汇率、不干预股市变为干预股市,而且是直接干预。其具体做法是动用外汇基金大量买入股票为股市托盘。在1997年10月香港股灾发生期间,香港金融管理局认为股票价格下跌在一定程度上是对前一段时期股票价格过高的一种纠正,而对股市未加任何干预。在1998年8月特区政府不但进行了干预,而且是同国际炒家“对盘”,即进行最直接的干预。8月14日香港特区政府介入股市及期市,大量买进股票以遏制股票市场的跌势。香港特区政府在干预股市及期市时,买入多只可影响股市升跌的蓝筹股,并买进8月份期指好仓(long position)合约,推高指数,同时大量吸纳9月份期指淡仓(short position),以扩大9月份与8月份的指数差距,从而增加国际炒家的转仓(roll over)成本。当天,恒生指数上升564点以7244点报收。此后恒生指数逐步回升到7800点。8月28日,被沽空的股份交易额达9.3亿美元;期指成交数目达4.4万张。香港特区政府则利用外汇基金买进了价值几十亿美元的股票。是日,股票市场的成交量高达790亿港元,比香港股票市场成交量的原历史最高纪录(467亿港元)高出70%。最后,恒生指数以7829点报收,比前日跌93点。除买入股票外,香港特区政府还使用了其他政策手段。8月28日,为了增加国际炒家沽空港元的借贷成本,香港特区政府抽高了由隔夜到六个月的银行间拆借利息率。一周的拆借利息率最高曾达30%,比前一天高出八成。
再次,在这次金融攻守战中,香港金融当局不但介入汇市、股市,不但作为市场的参与方介入汇市、股市,而且利用法律所赋予的权力,通过改变游戏规则等方式,主动出击打击国际炒家。8月30日香港期货交易所配合金管局推出三项措施以对付国际炒家:(1)向持有超过一万张期指合约的大户增收按金,每张期指合约由8万港元加至12万港元,增幅五成;(2)客户持有超过250张期指或恒指期权,经纪人必须申报(以往则是500张以上才申报);(3)经纪人须申报持有250张以上期指或期权的大户的身份(以往则只须申报交易额)。
9月1日,国际炒家开始在汇市平仓离场。自1997年10月以来国际炒家对香港联系汇率制度的第四次进攻又以香港特区政府的胜利而告结束。
香港一向以自由经济著称,香港政府并没有干预市场的传统,但为什么1998年香港政府会直接入市干预呢?在1997年10月香港股灾暂告平息之后,一般分析家认为,12000点是比较符合香港经济基本面的股票价格。1998年的情况则是,香港经济已陷入衰退,世界经济的整体形势亦不令人乐观。投资者预期股市还将进一步下跌。有人甚至认为恒指要下降到3200点才能稳住,而不动产价格还将从8月份的水平进一步下跌50%。这种说法无疑是信口雌黄。但问题是,西方的权威性传媒在宣传这种观点,而许多人相信这种观点。在这种情况下,通过所谓“羊群效应”,不管股票的实际价值是多少,如果股民相信恒生股指将要跌到3000点,恒生股指就会跌到3000点。支撑股市的唯一间接手段是降息,但在当时情况下,由于首要目标是维持港币的固定汇率不变,对香港特区政府来说,不存在降息这种选择。如果金管局不干预,香港股市一定暴跌,炒家一定会在香港股市大赚其利。而香港股市的进一步暴跌将使香港银行业、房地产业和实质经济的形势进一步恶化。香港特区秉承自由市场经济的传统,在并非万不得已的情况下是不会干预市场的。但是,当既不能用降息的方法应对股市暴跌,其他方法又不能解燃眉之急的时候,香港特区政府就义无反顾地动用外汇基金直接买进股票进行托市了。
由于香港特区政府对股市的直接干预,一向以实行“经济自由主义”而备受西方赞扬的香港特区政府遭到西方报刊的猛烈攻讦。《新闻周刊》指责香港特区政府同马来西亚总理马哈蒂尔唱一个调子、把自己的错误推给外人。甚至指责他们继承了共产党中央计划人员的精神与实践。然而,同市场原教旨主义的预言相反, 1998年8月香港特区政府对股市的直接干预取得了成功。香港股市没有崩盘,香港地区的市场经济体制也没有受到伤害。
不必惧怕必要的干预
中国的股市是转型时期的股市。避免股市的大起大落对于中国股票市场的健康发展具有非常重要的意义。市场原教旨主义者声称任何政府干预都是有害的,其实这种论调对于市场经济的发展才是有害的。如果政府过度干预,变成了“掠夺之手”,那么对市场的发育肯定是毁灭性的,但是,市场经济的发展从来都没有离开过政府的影响,好的政府政策对于市场的发展是“支援的手”。为了稳定股市,促进股市的健康发展,政府需要进行必要的干预。香港政府的护盘经验说明,为了维护股市的稳定,决策者必须避免各种教条主义的束缚,不做宋襄公。及时的政策是最好的政策。相反,优柔寡断、犹豫不决往往贻误时机,酿成大错。日本就曾经有过这样的教训。
20世纪80年代,当日本的资产市场已经出现泡沫的征兆时,日本政府并未给予足够的重视。日本当局在资产价格泡沫初期主要是运用道义劝告来限制银行贷款,但与此同时,日本货币政策依然极为宽松。从1986年1月到1987年12月,日本银行分五次将贴现率降到了2.5%,降息主要是为了刺激国内需求和遏制日元升值的势头。从1987年第二季度开始日本银行希望通过劝说商业银行来控制贷款,但这一措施收效甚微。于是日本银行开始加大动作,1989年5月31日贴现率被提高到3.25%,随后贴息率进一步提高,在1990年8月30日达到了6%。过于激烈的紧缩政策终于刺破了资产价格的泡沫,并使得日本经济从此一蹶不振。
美国20世纪20年代也经历了前所未有的股市泡沫,1928年美联储开始限制投机性的银行贷款,对于过度发放证券贷款的银行拒绝给予贴现,但迟迟不肯提高贴现率。美联储紧缩信贷的措施并未影响到股市的继续上涨,因为股市投资者可以从其他渠道得到融资。当股市于1929年10月出现崩盘之后,纽约储备银行迅速反应,在公开市场上买入1.6亿美元的债券,担当了最终贷款人的角色,化解了纽约金融市场上的流动性不足和恐慌。但是,美联储却制止了纽约储备银行的干预,而且,尽管经济已经陷入衰退,美联储仍然坚持紧缩性的货币政策。美联储的不作为和错误的政策最终引发了大规模的银行破产和持久的美国经济大萧条。
转型时期的股市调控,需要采取转型时期的政策。中国不能直接照搬发达国家的经验,而是必须采取适合中国国情的政策。最优的政策目前仍然是不存在的,因为政府需要提高决策的技巧,市场也需要变得更加成熟,这是一个从干中学的过程。在这个过程中,最重要的是政府要有决心和魄力。和市场的沟通与交流对于提高政策的可信度是非常重要的,但如果变成市场的“俘虏”则是可悲的,政府需要维护政策的独立性和灵活性。政府的各个部门之间需要更好地配合和协调,并尽可能地使决策远离各种利益集团的影响,远离教条主义和民粹主义的干扰。最后,我们希望再次强调,执行机关必须事先想清楚各种可能性,制定好周密的预案,勿忘“魔鬼隐藏在细节中”。
Subscribe to:
Comments (Atom)

