为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

电脑diy知识

2018-04-02 50页 doc 1001KB 12阅读

用户头像

is_574951

暂无简介

举报
电脑diy知识电脑diy知识 什么是64位技术 64位技术:这里的64位技术是相对于32位而言的,这个位数指的是CPU GPRs(General-Purpose Registers,通用寄存器)的数据宽度为64位,64位指令集就是运行64位数据的指令,也就是说处理器一次可以运行64bit数据。64bit处理器并非现在才有的,在高端的RISC(Reduced Instruction Set Computing,精简指令集计算机)很早就有64bit处理器了,比如SUN公司的UltraSparc ?、IBM公司的POWER5、HP公司的Alp...
电脑diy知识
电脑diy知识 什么是64位技术 64位技术:这里的64位技术是相对于32位而言的,这个位数指的是CPU GPRs(General-Purpose Registers,通用寄存器)的数据宽度为64位,64位指令集就是运行64位数据的指令,也就是说处理器一次可以运行64bit数据。64bit处理器并非现在才有的,在高端的RISC(Reduced Instruction Set Computing,精简指令集计算机)很早就有64bit处理器了,比如SUN公司的UltraSparc ?、IBM公司的POWER5、HP公司的Alpha等。 64bit计算主要有两大优点:可以进行更大范围的整数运算;可以支持更大的内存。不能因为数字上的变化,而简单的认为64bit处理器的性能是32bit处理器性能的两倍。实际上在32bit应用下,32bit处理器的性能甚至会更强,即使是64bit处理器,目前情况下也是在32bit应用下性能更强。所以要认清64bit处理器的优势,但不可迷信64bit。 要实现真正意义上的64位计算,光有64位的处理器是不行的,还必须得有64位的操作系统以及64位的应用软件才行,三者缺一不可,缺少其中任何一种要素都是无法实现64位计算的。目前,在64位处理器方面,Intel和AMD两大处理器厂商都发布了多个系列多种规格的64位处理器;而在操作系统和应用软件方面,目前的情况不容乐观。因为真正适合于个人使用的64位操作系统现在就只有Windows XP X64,而Windows XP X64本身也只是一个过渡性质的64位操作系统,在Windows Vista发布以后就将被淘汰,而且Windows XP X64本身也不太完善,易用性不高,一个明显的例子就是各种硬件设备的驱动程序很不完善,而且现在64位的应用软件还基本上没有,确实硬件厂商和软件厂商也不愿意去为一个过渡性质的操作系统编写驱动程序和应用软件。所以要想实现真正的64位计算,恐怕还得等到Windows Vista普及一段时间之后才行。 目前主流CPU使用的64位技术主要有AMD公司的AMD64位技术、Intel公司的EM64T技术、和Intel公司的IA-64技术。其中IA-64是Intel独立开发,不兼容现在的传统的32位计算机,仅用于Itanium(安腾)以及后续产品Itanium 2,一般用户不会涉及到,因此这里仅对AMD64位技术和Intel的EM64T技术做一下简单介绍。 AMD64位技术X86-64: AMD64的位技术是在原始32位X86指令集的基础上加入了X86-64扩展64位X86指令集,使这款芯片在硬件上兼容原来的32位X86软件,并同时支持X86-64的扩展64位计算,使得这款芯片成为真正的64位X86芯片。这是一个真正的64位的,X86-64具有64位的寻址能力。 X86-64新增的几组CPU寄存器将提供更快的执行效率。寄存器是CPU内部用来创建和储存CPU运算结果和其它运算结果的地方。标准的32-bit x86架构包括8个通用寄存器(GPR),AMD在X86-64中又增加了8组(R8-R9),将寄存器的数目提高到了16组。X86-64寄存器默认位64-bit。还增加了8组128-bit XMM寄存器(也叫SSE寄存器,XMM8-XMM15),将能给单指令多数据流技术(SIMD)运算提供更多的空间,这些128位的寄存器将提供在矢量和标量计算模式下进行128位双精度处理,为3D建模、矢量分析和虚拟现实的实现提供了硬件基础。通过提供了更多的寄存器,按照X86-64标准生产的CPU可以更有效的处理数据,可以在一个时钟周期中传输更多的信息。 EM64T技术 Intel官方是给EM64T这样定义的:EM64T全称Extended Memory 64 Technology,即扩展64bit内存技术。EM64T是Intel IA-32架构的扩展,即IA-32e(Intel Architectur-32 extension)。IA-32处理器通过附加EM64T技术,便可在兼容IA-32软件的情况下,允许软件利用更多的内存地址空间,并且允许软件进行32 bit线性地址写入。EM64T特别强调的是对32 bit和64 bit的兼容性。Intel为新核心增加了8个64 bit GPRs(R8-R15),并且把原有GRPs全部扩展为64 bit,这样可以提高整数运算能力。增加8个128bit SSE寄存器(XMM8-XMM15),是为了增强多媒体性能,包括对SSE、SSE2和SSE3的支持。 Intel为支持EM64T技术的处理器设计了两大模式:传统IA-32模式(legacy IA-32 mode)和IA-32e扩展模式(IA-32e mode)。在支持EM64T技术的处理器内有一个称之为扩展功能激活寄存器(extended feature enable register,IA32_EFER)的部件,其中的Bit10控制着EM64T是否激活。Bit10被称作IA-32e模式有效(IA-32e mode active)或长模式有效(long mode active,LMA)。当LMA,0时,处理器便作为一颗标准的32 bit(IA32)处理器运行在传统IA-32模式;当LMA,1时,EM64T便被激活,处理器会运行在IA-32e扩展模式下。 目前AMD方面支持64位技术的CPU有Athlon 64系列、Athlon FX系列和Opteron系列。Intel方面支持64位技术的CPU有使用Nocona核心的Xeon系列、使用Prescott 2M核心的Pentium 4 6系列和使用Prescott 2M核心的P4 EE系列。 浅谈 EM64T技术和AMD64区别X86-64 (AMD64 / EM64T) : AMD公司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作,就要将结果扩展成完整的64位。这样,指令中有“直接执行”和“转换执行”的区别,其指令字段是8位或32位,可以避免字段过长。 x86-64(AMD64)的产生也并非空穴来风,x86处理器的32bit寻址空间限制在4GB内存,而IA-64的处理器又不能兼容x86。 AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上 AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄 EBX也由32位扩张至64位。在SSE中新加入了8存器。原来的寄存器诸如EAX、 个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代码及寄存器,x86-64架构允许处理器工作在以下两种模式:Long Mode(长模式)和Legacy Mode(遗传模式),Long模式又分为两种子模式(64bit模式和Compatibility mode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器。 而今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64位操作系统下的时候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的。 Intel的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,Intel的Pentium 4E处理器也支持64位技术。 应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。 内存电压 内存正常工作所需要的电压值,不同类型的内存电压也不同,但各自均有自己的规格,超出其规格,容易造成内存损坏。SDRAM内存一般工作电压都在3.3伏左右,上下浮动额 度不超过0.3伏;DDR SDRAM内存一般工作电压都在2.5伏左右,上下浮动额度不超过0.2伏;而DDR2 SDRAM内存的工作电压一般在1.8V左右。具体到每种品牌、每种型号的内存,则要看厂家了,但都会遵循SDRAM内存3.3伏、DDR SDRAM内存2.5伏、DDR2 SDRAM内存1.8伏的基本要求,在允许的范围内浮动。略微提高内存电压,有利于内存超频,但是同时发热量大大增加,因此有损坏硬件的风险。 ATA、ATAPI的含义 ATA和ATAPI是广为使用的IDE和EIDE设备的相关标准。ATA是AT Attachment的缩写,意思是AT计算机上的附加设备(还记得IBM PC/AT吗,)。ATA可以使用户方便地在PC机上连接硬盘,但有时这样还不够。有些用户需要通过同样方便的手段连接CDROM、磁带机、MO驱动器等设备。ATAPI标准就是为了解决在IDE/EIDE接口上连接多种设备而制定的。ATAPI是AT Attachment Packet Interface的缩写,意思是AT计算机上附加设备的包接口。支持ATAPI的IDE/EIDE接口可以像连接硬盘一样连接ATAPI设备。目前几乎所有的IDE/EIDE接口都支持ATAPI。 硬盘缓存 缓存(Cache memory)是硬盘控制器上的一块内存芯片,具有极快的存取速度,它是硬盘内部存储和外界接口之间的缓冲器。由于硬盘的内部数据传输速度和外界介面传输速度不同,缓存在其中起到一个缓冲的作用。缓存的大小与速度是直接关系到硬盘的传输速度的重要因素,能够大幅度地提高硬盘整体性能。当硬盘存取零碎数据时需要不断地在硬盘与内存之间交换数据,如果有大缓存,则可以将那些零碎数据暂存在缓存中,减小外系统的负荷,也提高了数据的传输速度。 硬盘的缓存主要起三种作用:一是预读取。当硬盘受到CPU指令控制开始读取数据时,硬盘上的控制芯片会控制磁头把正在读取的簇的下一个或者几个簇中的数据读到缓存中(由于硬盘上数据存储时是比较连续的,所以读取命中率较高),当需要读取下一个或者几个簇中的数据的时候,硬盘则不需要再次读取数据,直接把缓存中的数据传输到内存中就可以了,由于缓存的速度远远高于磁头读写的速度,所以能够达到明显改善性能的目的;二是对写入动作进行缓存。当硬盘接到写入数据的指令之后,并不会马上将数据写入到盘片上,而是先 暂时存储在缓存里,然后发送一个“数据已写入”的信号给系统,这时系统就会认为数据已经写入,并继续执行下面的工作,而硬盘则在空闲(不进行读取或写入的时候)时再将缓存中的数据写入到盘片上。虽然对于写入数据的性能有一定提升,但也不可避免地带来了安全隐 如果数据还在缓存里的时候突然掉电,那么这些数据就会丢失。对于这个问题,硬盘患—— 厂商们自然也有解决办法:掉电时,磁头会借助惯性将缓存中的数据写入零磁道以外的暂存区域,等到下次启动时再将这些数据写入目的地;第三个作用就是临时存储最近访问过的数据。有时候,某些数据是会经常需要访问的,硬盘内部的缓存会将读取比较频繁的一些数据存储在缓存中,再次读取时就可以直接从缓存中直接传输。 缓存容量的大小不同品牌、不同型号的产品各不相同,早期的硬盘缓存基本都很小,只有几百KB,已无法满足用户的需求。2MB和8MB缓存是现今主流硬盘所采用,而在服务器或特殊应用领域中还有缓存容量更大的产品,甚至达到了16MB、64MB等。 大容量的缓存虽然可以在硬盘进行读写工作状态下,让更多的数据存储在缓存中,以提高硬盘的访问速度,但并不意味着缓存越大就越出众。缓存的应用存在一个算法的问题,即便缓存容量很大,而没有一个高效率的算法,那将导致应用中缓存数据的命中率偏低,无法有效发挥出大容量缓存的优势。算法是和缓存容量相辅相成,大容量的缓存需要更为有效率的算法,否则性能会大大折扣,从技术角度上说,高容量缓存的算法是直接影响到硬盘性能发挥的重要因素。更大容量缓存是未来硬盘发展的必然趋势。 内部数据传输率 内部数据传输率(Internal Transfer Rate)是指硬盘磁头与缓存之间的数据传输率,简单的说就是硬盘将数据从盘片上读取出来,然后存储在缓存内的速度。内部传输率可以明确表现出硬盘的读写速度,它的高低才是评价一个硬盘整体性能的决定性因素,它是衡量硬盘性能的真正标准。有效地提高硬盘的内部传输率才能对磁盘子系统的性能有最直接、最明显的提升。目前各硬盘生产厂家努力提高硬盘的内部传输率,除了改进信号处理技术、提高转速以外,最主要的就是不断的提高单碟容量以提高线性密度。由于单碟容量越大的硬盘线性密度越高,磁头的寻道频率与移动距离可以相应的减少,从而减少了平均寻道时间,内部 传输速率也就提高了。虽然硬盘技术发展的很快,但内部数据传输率还是在一个比较低(相对)的层次上,内部数据传输率低已经成为硬盘性能的最大瓶颈。目前主流的家用级硬盘,内部数据传输率基本还停留在60 MB/s左右,而且在连续工作时,这个数据会降到更低。 数据传输率的单位一般采用MB/s或Mbit/s,尤其在内部数据传输率上官方数据中更多的采用Mbit/s为单位。此处有必要讲解一下两个单位二者之间的差异: MB/s的含义是兆字节每秒,Mbit/s的含义是兆比特每秒,前者是指每秒传输的字节数量,后者是指每秒传输的比特位数。MB/s中的B字母是Byte的含义,虽然与Mbit/s中的bit翻译一样,都是比特,也都是数据量度单位,但二者是完全不同的。Byte是字节数,bit是位数,在计算机中每八位为一字节,也就是1Byte,8bit,是1:8的对应关系。因此1MB/s等于8Mbit/s。因此在在书写单位时一定要注意B字母的大小写,尤其有些人还把Mbit/s简写为Mb/s,此时B字母的大小真可以称为失之毫厘,谬以千里。 上面这是一般情况下MB/s与Mbit/s的对应关系,但在硬盘的数据传输率上二者就不能用一般的MB和Mbit的换算关系(1B=8bit)来进行换算。比如某款产品官方标称的内部数据传输率为683Mbit/s,此时不能简单的认为683除以8得到85.375,就认为85MB/s是该硬盘的内部数据传输率。因为在683Mbit中还包含有许多bit(位)的辅助信息,不完全是硬盘传输的数据,简单的用8来换算,将无法得到真实的内部数据传输率数值。 什么是SATA接口 SATA是Serial ATA的缩写,即串行ATA。这是一种完全不同于并行ATA的新型硬盘接口类型,由于采用串行方式传输数据而得名。SATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。 与并行ATA相比,SATA具有比较大的优势。首先,Serial ATA以连续串行的方式传送数据,可以在较少的位宽下使用较高的工作频率来提高数据传输的带宽。Serial ATA一 次只会传送1位数据,这样能减少SATA接口的针脚数目,使连接电缆数目变少,效率也会更高。实际上,Serial ATA 仅用四支针脚就能完成所有的工作,分别用于连接电缆、连接地线、发送数据和接收数据,同时这样的架构还能降低系统能耗和减小系统复杂性。其次,Serial ATA的起点更高、发展潜力更大,Serial ATA 1.0定义的数据传输率可达150MB/sec,这比目前最块的并行ATA(即ATA/133)所能达到133MB/sec的最高数据传输率还高,而目前SATA II的数据传输率则已经高达300MB/sec。 Serial ATA规范不仅立足于未来,而且还保留了多种向后兼容方式,在使用上不存在兼容性的问题。在硬件方面,Serial ATA标准中允许使用转换器提供同并行ATA设备的兼容性,转换器能把来自主板的并行ATA信号转换成Serial ATA硬盘能够使用的串行信号,目前已经有多种此类转接卡/转接头上市,这在某种程度上保护了我们的原有投资,减小了升级成本;在软件方面,Serial ATA和并行ATA保持了软件兼容性,这意味着厂商丝毫也不必为使用Serial ATA而重写任何驱动程序和操作系统代码。 另外,Serial ATA接线较传统的并行ATA(Paralle ATA)接线要简单得多,而且容易收放,对机箱内的气流及散热有明显改善。而且,SATA硬盘与始终被困在机箱之内的并行ATA不同,扩充性很强,即可以外置,外置式的机柜(JBOD)不单可提供更好的散热及插拔功能,而且更可以多重连接来防止单点故障;由于SATA和光纤通道的设计如出一辙,所以传输速度可用不同的通道来做保证,这在服务器和网络存储上具有重要意义。 而SATA II是在SATA的基础上发展起来的,其主要特征是外部传输率从SATA的1.5Gbps(150MB/sec)进一步提高到了3Gbps(300MB/sec),此外还包括NCQ(Native Command Queuing,原生命令队列)、端口多路器(Port Multiplier)、交错启动(Staggered Spin-up)等一系列的技术特征。单纯的外部传输率达到3Gbps并不是真正的SATA II。 SATA II的关键技术就是3Gbps的外部传输率和NCQ技术。NCQ技术可以对硬盘的指令执行顺序进行优化,避免像传统硬盘那样机械地按照接收指令的先后顺序移动磁头读写硬盘的不同位置,与此相反,它会在接收命令后对其进行排序,排序后的磁头将以高效率的 顺序进行寻址,从而避免磁头反复移动带来的损耗,延长硬盘寿命。另外并非所有的SATA硬盘都可以使用NCQ技术,除了硬盘本身要支持 NCQ之外,也要求主板芯片组的SATA控制器支持NCQ。此外,NCQ技术不支持FAT文件系统,只支持NTFS文件系统。 由于SATA设备市场比较混乱,不少SATA设备提供商在市场宣传中滥用“SATA II”的现象愈演愈烈,例如某些号称“SATA II”的硬盘却仅支持3Gbps而不支持NCQ,而某些只具有1.5Gbps的硬盘却又支持NCQ,所以,由希捷(Seagate)所主导的SATA-IO(Serial ATA International Organization,SATA国际组织,原SATA工作组)又宣布了SATA 2.5规范,收录了原先SATA II所具有的大部分功能——从3Gbps和NCQ到交错启动(Staggered Spin-up)、热插拔(Hot Plug)、端口多路器(Port Multiplier)以及比较新的eSATA(External SATA,外置式SATA接口)等等。 值得注意的是,部分采用较早的仅支持1.5Gbps的南桥芯片(例如VIA VT8237和NVIDIA nForce2 MCP-R/MCP-Gb)的主板在使用SATA II硬盘时,可能会出现找不到硬盘或蓝屏的情况。不过大部分硬盘厂商都在硬盘上设置了一个速度选择跳线,以便强制选择1.5Gbps或3Gbps的工作模式(少数硬盘厂商则是通过相应的工具软件来设置),只要把硬盘强 SATA II硬盘照样可以在老主板上正常使用。 制设置为1.5Gbps, SATA硬盘在设置RAID模式时,一般都需要安装主板芯片组厂商所提供的驱动,但也有少数较老的SATA RAID控制器在打了最新补丁的某些集成了SATA RAID驱动的版本的Windows XP系统里不需要加载驱动就可以组建RAID。 SATA相较并行ATA可谓优点多多,将成为并行ATA的廉价替代。并且从并行ATA完全过渡到SATA也是大势所趋,应该只是时间问题。相关厂商也在大力推广SATA接口,例如Intel的ICH6系列南桥芯片相较于ICH5系列南桥芯片,所支持的SATA接口从2个增加到了4个,而并行ATA接口则从2个减少到了1个;而ICH7系列南桥则进一步支持了4个SATA II接口;下一代的ICH8系列南桥则将支持6个SATA II接口并将完全抛弃并行ATA接口;其它主板芯片组厂商也已经开始支持SATA II接口;目前SATA II接口 的硬盘也逐渐成为了主流;其它采用SATA接口的设备例如SATA光驱也已经出现。 值得注意的是,无论是SATA还是SATA II,其实对硬盘性能的影响都不大。因为目前硬盘性能的瓶颈集中在由硬盘内部机械机构和硬盘存储技术、磁盘转速所决定的硬盘内部数据传输率上面,就算是目前最顶级的15000转SCSI硬盘其内部数据传输率也不过才80MB/sec左右,更何况普通的7200转桌面级硬盘了。除非硬盘的数据记录技术产生革命性的变化,例如垂直记录技术等等,目前硬盘的内部数据传输率也难以得到飞跃性的提高。说得不好听的话,目前的硬盘采用ATA 100都已经完全够用了,之所以采用更先进的接口技术,是可以获得更高的突发传输率、支持更多的特性、更加方便易用以及更具有发展潜力罢了。 存取时间 tAC是Access Time from CLK的缩写,是指最大CAS延迟时的最大数输入时钟,是以纳秒为单位的,与内存时钟周期是完全不同的概念,虽然都是以纳秒为单位。存取时间(tAC)代表着读取、写入的时间,而时钟频率则代表内存的速度。PC 100规范要求在CL=3时tAC不大于6ns。某些内存编号的位数表示的是这个值。目前大多数SDRAM芯片的存取时间为5、6、7、8或10ns。 什么是一级缓存 即L1 Cache。集成在CPU内部中,用于CPU在处理数据过程中数据的暂时保存。由于缓存指令和数据与CPU同频工作,L1级高速缓存缓存的容量越大,存储信息越多,可减少CPU与内存之间的数据交换次数,提高CPU的运算效率。但因高速缓冲存储器均由静态RAM组成,结构较复杂,在有限的CPU芯片面积上,L1级高速缓存的容量不可能做得太大。 IDE传输接口 PIDE硬盘的传输模式有以下三种:PIO(Programmed I/O)模式、DMA(Driect Memory Access)模式、Ultra DMA(简称UDMA)模式。 PIO(Programmed I/O)模式的最大弊端是耗用极大量的CPU资源。以PIO模式运行的 IDE接口,数据传输率达3.3MB/s(PIO mode 0) -16.6MB/s(PIO mode 4)不等。 PDMA(Direct Memory Access)模式分为Single-Word DMA及Multi-Word DMA两种。Single-Word DMA模式的最高传输率达8.33MB/s,Multi-Word DMA(Double Word) 则可达16.66MB/s。 PDMA模式同PIO模式的最大区别是:DMA模式并不用过分依赖CPU的指令而运行,可达到节省处理器运行资源的效果。但由于Ultra DMA模式 的出现和快速普及,这两个模式立即被UDMA所取代。 PUltra DMA模式(简称UDMA)是Ultra ATA制式下所引用的一个标准,以16-bit Multi-Word DMA模式作为基准。UDMA其中一个优点是它除了拥有DMA模式的优点外,更应用了CRC(Cyclic Redundancy Check)技术,加强了资料在传送过程中侦错及除错方面的效能。 P自Ultra ATA标准推行以来,其接口便应用了DDR(Double Data Rate)技术将传输的速度提升了一倍,目前已发展到Ultra ATA/100了,其传输速度高达100MB/s。 ATI Crossfire(交叉火力)技术 ATI的CrossFire技术是为了对付nVIDIA的SLI技术而推出的,也就是所谓的“交叉火力”简称“交火”。与nVIDIA的SLI技术类似,实现CrossFire技术也需要两块显卡,而且两块显卡之间也需要连接(只是在机箱外部而非内部罢了)。但是CrossFire与SLI也有不同,首先主显卡必须是CrossFire版的,也就是说主显卡必须要有图象合成器,而副显卡则不需要;其次,CrossFire技术支持采用不同显示芯片(包括不同数量的渲染管线和核心/显存频率)的显卡,只是较高档显卡多出的渲染管线会被自动关闭而且频率也可能会自动降低到性能较低显卡的水平,在这点上CrossFire比SLI具有更高的灵活性。 在渲染模式方面,CrossFire除了具有SLI的分割帧渲染模式和交替帧渲染模式之外,还支持方块分离渲染模式(SuperTiling)和超级全屏抗锯齿渲染模式(Super AA)。方块分离渲染模式下是把画面分割成32X32像素方块,类似于国际象棋棋盘方格,其中一半由主显卡负责运算渲染,另一半由副显卡负责处理,然后根据实际的显示结果,让双显卡同时逐格渲染处理,这样系统可以更有效的配平两块显卡的工作任务。在超级全屏抗锯齿渲染模式下,两块显卡在工作时独立使用不同的FSAA(全屏抗锯齿)采样来对画面进行处理,然后由图象合成器将两块显卡所处理的数据合成以输出高画质的图像;在这种模式下,对整个画面的渲染工作不是一分为二来分配给两块显卡,而是每一块显卡都要完整渲染一次,即每块显卡在这里的工作量都和单显卡渲染模式时是一样的,只不过最后图象合成器会把两块显卡分别渲染的画面合成起来作为最终的显示画面;在这种模式下,由于画面的每个像素点都被渲染二次,因此可以大大提升图像显示画质,例如一块显卡采用8倍FSAA而另外一块显卡采用6倍FSAA,则最终显示的画面就可以达到14倍FSAA;所以超级全屏抗锯齿渲染模式是提高渲染画质而并不能提升渲染速度。 另外,与SLI不同的是,CrossFire还支持多头显示,如果配合整合了显示芯片的ATI芯片组主板,最多可以支持5个显示屏输出。不过在多头显示模式下CrossFire其实并不能提升性能和画质了。 目前,支持SLI技术的各种主板和显卡已经大量上市,消费者有很大的选择余地,而且其驱动程序也先后发布了多款,性能越来越高,兼容性也越来越好;CrossFire技术才刚发布,目前市场上还没有相应的产品可供选购。 什么是DirectX DirectX并不是一个单纯的图形API,它是由微软公司开发的用途广泛的API,它包含有Direct Graphics(Direct 3D+Direct Draw)、Direct Input、Direct Play、Direct Sound、Direct Show、Direct Setup、Direct Media Objects等多个组件,它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。DirectX开发之初是为了弥补Windows 3.1系统对图形、声音处理能力的不足,而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。 DirectX 5.0 微软公司并没有推出DirectX 4.0,而是直接推出了DirectX 5.0。此版本对Direct3D做出了很大的改动,加入了雾化效果、Alpha混合等3D特效,使3D游戏中的空间感和真实感得以增强,还加入了S3的纹理压缩技术。同时,DirectX 5.0在其它各组件方面也有加强,在声卡、游戏控制器方面均做了改进,支持了更多的设备。因此,DirectX发展到DirectX 5.0才真正走向了成熟。此时的DirectX性能完全不逊色于其它3D API,而且大有后来居上之势。 DirectX 6.0 DirectX 6.0推出时,其最大的竞争对手之一Glide,已逐步走向了没落,而DirectX则得到了大多数厂商的认可。DirectX 6.0中加入了双线性过滤、三线性过滤等优化3D图像质量的技术,游戏中的3D技术逐渐走入成熟阶段。 DirectX 7.0 DirectX 7.0最大的特色就是支持T&L,中文名称是“坐标转换和光源”。3D游戏中的任何一个物体都有一个坐标,当此物体运动时,它的坐标发生变化,这指的就是坐标转换;3D游戏中除了场景,物体还需要灯光,没有灯光就没有3D物体的表现,无论是实时3D游戏还是3D影像渲染,加上灯光的3D渲染是最消耗资源的。虽然OpenGL中已有相关技术,但此前从未在民用级硬件中出现。在T&L问世之前,位置转换和灯光都需要CPU来计算,CPU速度越快,游戏表现越流畅。使用了T&L功能后,这两种效果的计算用显示卡的GPU来计算,这样就可以把CPU从繁忙的劳动中解脱出来。换句话说,拥有T&L显示卡,使用DirectX 7.0,即使没有高速的CPU,同样能流畅的跑3D游戏。 DirectX 8.0 DirectX 8.0的推出引发了一场显卡革命,它首次引入了“像素渲染”概念,同时具备像素渲染引擎(Pixel Shader)与顶点渲染引擎(Vertex Shader),反映在特效上就是动态光影效果。同硬件T&L仅仅实现的固定光影转换相比,VS和PS单元的灵活性更大,它使GPU真正成为了可编程的处理器。这意味着程序员可通过它们实现3D场景构建的难度大大降低。通过VS和PS的渲染,可以很容易的宁造出真实的水面动态波纹光影效果。此时DirectX的权威地位终于建成。 DirectX 9.0 DirectX 9中PS单元的渲染精度已达到浮点精度, 2002年底,微软发布DirectX9.0。 传统的硬件T&L单元也被取消。全新的VertexShader(顶点着色引擎)编程将比以前复杂得多,新的VertexShader标准增加了流程控制,更多的常量,每个程序的着色指令增加到了1024条。 PS 2.0具备完全可编程的架构,能对纹理效果即时演算、动态纹理贴图,还不占用显存,理论上对材质贴图的分辨率的精度提高无限多;另外PS1.4只能支持28个硬件指令,同时操作6个材质,而PS2.0却可以支持160个硬件指令,同时操作16个材质数量,新的高精度浮点数据规格可以使用多重纹理贴图,可操作的指令数可以任意长,电影级别的显示效果轻而易举的实现。 VS 2.0通过增加Vertex程序的灵活性,显著的提高了老版本(DirectX8)的VS性能,新的控制指令,可以用通用的程序代替以前专用的单独着色程序,效率提高许多倍;增加循环操作指令,减少工作时间,提高处理效率;扩展着色指令个数,从128个提升到256个。 增加对浮点数据的处理功能,以前只能对整数进行处理,这样提高渲染精度,使最终处理的色彩格式达到电影级别。突破了以前限制PC图形图象质量在数学上的精度障碍,它的每条渲染流水线都升级为128位浮点颜色,让游戏程序设计师们更容易更轻松的创造出更漂亮的效果,让程序员编程更容易。 DirectX 9.0c 与过去的DirectX 9.0b和Shader Model 2.0相比较,DirectX 9.0c最大的改进,便是引入了对Shader Model 3.0(包括Pixel Shader 3.0 和Vertex Shader 3.0两个着色语言规范)的全面支持。举例来说,DirectX 9.0b的Shader Model 2.0所支持的Vertex Shader最大指令数仅为256个,Pixel Shader最大指令数更是只有96个。而在最新的Shader Model 3.0中,Vertex Shader和Pixel Shader的最大指令数都大幅上升至65535个,全新的动态程序流控制、 位移贴图、多渲染目标(MRT)、次表面散射 Subsurface scatter ing、柔和阴影 Soft shadows、环境和地面阴影 Environmental and ground shadows、全局照明 (Global illumination)等新技术特性,使得GeForce 6、GeForce7系列以及Radeon X1000系列立刻为新一代游戏以及具备无比真实感、幻想般的复杂的数字世界和逼真的角色在影视品质的环境中活动提供强大动力。 因此DirectX 9.0c和Shader Model 3.0标准的推出,可以说是DirectX发展历程中的重要转折点。在DirectX 9.0c中,Shader Model 3.0除了取消指令数限制和加入位移贴图等新特性之外,更多的特性都是在解决游戏的执行效率和品质上下功夫,Shader Model 3.0诞生之后,人们对待游戏的态度也开始从过去单纯地追求速度,转变到游戏画质和运行速度两者兼顾。因此Shader Model 3.0对游戏产业的影响可谓深远。 显卡插槽 是指显卡与主板连接所采用的接口种类。显卡的接口决定着显卡与系统之间数据传输的最大带宽,也就是瞬间所能传输的最大数据量。不同的接口决定着主板是否能够使用此显卡,只有在主板上有相应接口的情况下,显卡才能使用,并且不同的接口能为显卡带来不同的性能。 目前各种3D游戏和软件对显卡的要求越来越高,主板和显卡之间需要交换的数据量也越来越大,过去的插槽早已不能满足这样大量的数据交换,因此通常主板上都带有专门插显卡的插槽。假如显卡插槽的传输速度不能满足显卡的需求,显卡的性能就会受到巨大的限制,再好的显卡也无法发挥。显卡发展至今主要出现过ISA、PCI、AGP、PCI Express等几种接口,所能提供的数据带宽依次增加。其中2004年推出的PCI Express接口已经成为主流,以解决显卡与系统数据传输的瓶颈问题,而ISA、PCI接口的显卡已经基本被淘汰。 PCIE接口显卡 AGP接口显卡 什么是渲染管线 渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。 渲染管线的数量一般是以 像素渲染流水线的数量×每管线的纹理单元数量 来表示。例如,GeForce 6800Ultra的渲染管线是16×1,就表示其具有16条像素渲染流水线,每管线具有1个纹理单元;GeForce4 MX440的渲染管线是2×2,就表示其具有2条像素渲染流水线,每管线具有2个纹理单元等等,其余表示方式以此类推。 渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高,例如16×1架构的GeForce 6800GT其性能要强于12×1架构的GeForce 6800,就象工厂里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;而在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如4×2架 构的GeForce2 GTS其性能就不如2×2架构的GeForce4 MX440,就象工厂里的采用了先进技术的1条流水线的生产能力和效率反而还要强于只采用了老技术的2条生产流水线那样。 适用类型 根据内存条所应用的主机不同,内存产品也各自不同的特点。台式机内存是DIY市场内最为普遍的内存,价格也相对便宜。笔记本内存则对尺寸、稳定性、散热性方面有一定的要求,价格要高于台式机内存。而应用于服务器的内存则对稳定性以及内存纠错功能要求严格,同样稳定性也是着重强调的。 台式机内存 笔记本内存就是应用于笔记本电脑的内存产品,笔记本内存只是使用的环境与台式机内存不同,在工作原理方面并没有什么区别。只是因为笔记本电脑对内存的稳定性、体积、散热性方面的需求,笔记本内存在这几方面要优于台式机内存,价格方面也要高于台式机内存。 笔记本内存 笔记本诞生于台式机的486年代,在那个时代的笔记本电脑,所采用的内存各不相同,各种品牌的机型使用的内存千奇百怪,甚至同一机型的不同批次也有不同的内存,规格极其复杂,有的机器甚至使用PCMICA闪存卡来做内存。进入到台式机的586时代,笔记本厂商开始推广72针的SO DIMM标准笔记本内存,而市场上还同时存在着多种规格的笔记本内存,诸如:72针5伏的FPM;72针5伏的EDO;72针3.3伏的FPM;72针3.3伏的EDO。此几种类型的笔记本内存都已成为“古董”级的宝贝,早已在市场内消失了。在进入到“奔腾”时代,144针的3.3伏的EDO标准笔记本内存。在往后随着台式机内存中SDRAM的普及,笔记本内存也出现了144针的SDRAM。现在DDR的笔记本内存也在市面中较为普遍了,而在一些轻薄笔记本内,还有些机型使用与普通机型不同的Micro DIMM接口内存。 对于多数的笔记本电脑都并没有配备单独的显存,而是采用内存共享的形式,内存要同时负担内存和显存的存储作用,因此内存对于笔记本电脑性能的影响很大。 服务器内存 服务器是企业信息系统的核心,因此对内存的可靠性非常敏感。服务器上运行着企业的关键业务,内存错误可能造成服务器错误并使数据永久丢失。因此服务器内存在可靠性方面的要求很高,所以服务器内存大多都带有Buffer(缓存器),Register(寄存器),ECC(错误纠正代码),以保证把错误发生可能性降到最低。服务器内存具有普通PC内存所不具备的高性能、高兼容性和高可靠性。 磁盘阵列RAID RAID,廉价冗余磁盘阵列,是Redundant Arrays of Independent Disks的简称。 磁盘阵列可以分为软阵列和硬阵列两种。软阵列就是通过软件程序来完成,要由计算机的处理器提供运算能力,只能提供最基本的RAID容错功能。硬阵列是由独立操作的硬件(阵列卡)提供整个磁盘阵列的控制和计算功能,卡上具备独立的处理器,不依靠系统的CPU资源,所有需要的容错功能均可以支持,所以硬阵列所提供的功能和性能均比软阵列好。 作为高性能的存储技术,RAID巳经得到了越来越广泛的应用。RAID的级别从RAID概念的提出到现在,巳经发展了很多个级别,但是最常用的是0、1、3、5四个级别。下面就介绍这四个级别。 RAID 0:把多个磁盘合并成一个大的磁盘,不具有冗余功能,并行I/O,速度最快。它是将多个磁盘并列起来,成为一个大硬盘。在存放数据时,其将数据按磁盘的个数来进行分段,然后同时将这些数据写进这些磁盘中。所以,在所有的级别中,RAID 0的速度是最快 的。但是RAID 0没有冗余功能,如果一个磁盘(物理)损坏,则所有的数据都无法使用。 RAID 1:两组相同的磁盘系统互作镜像,速度没有提高,但是允许单个磁盘出错,可靠性最高。RAID 1就是镜像。其原理为在主硬盘上存放数据的同时也在镜像硬盘上写一样的数据。当主硬盘(物理)损坏时,镜像硬盘则代替主硬盘的工作。因为有镜像硬盘做数据 数据安全性在所有的RAID级别上来说是最好的。但是其磁盘的利用备份,所以RAID 1的 率却只有50%,是所有RAID上磁盘利用率最低的一个级别。 RAID 3 存放数据的原理和RAID 0、RAID 1不同。RAID 3是以一个硬盘来存放数据的奇偶校验位,数据则分段存储于其余硬盘中。它象RAID 0一样以并行的方式来存放数,但速度没有RAID 0快。如果数据盘(物理)损坏,只要将坏硬盘换掉,RAID控制系统则会根据校验盘的数据校验位在新盘中重建坏盘上的数据。利用单独的校验盘来保护数据虽然没有镜像的安全性高,但是硬盘利用率得到了很大的提高,为n-1。但缺点是作为存放校验位的硬盘,工作负荷会很大,因为每次写操作,都会把生成的校验信息写入该磁盘,而其它磁盘的负荷相对较小,这会对性能有一定的影响。 RAID 5:在RAID 3的基础上,RAID 5进行了一些改进,当向阵列中的磁盘写数据,奇偶校验数据均匀存放在阵列中的各个盘上,允许单个磁盘出错。RAID 5也是以数据的校验位来保证数据的安全,但它不是以单独硬盘来存放数据的校验位,而是将数据段的校验位交互存放于各个硬盘上。这样,任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据。硬盘的利用率也是n-1。 nVIDIA的SLI技术 SLI的全称是Scalable Link Interface(可升级连接界面),它是通过一种特殊的接口连接方式,在一块支持双PCI Express X16插槽(注意这里只是插槽而不一定都具有16条PCI Express Lanes)的主板上,同时使用两块同型号的PCI Express显卡,以增强系统图形处理能力。 nVIDIA的SLI技术与早先3dfx的SLI虽然缩写相同,其实已经是全新的技术,不但工作原理不同,甚至名称都不相同,3dfx的SLI(Scan Line Interleave,双扫描线交错技术)是将画面分为一条条扫描帧线(Scanline),两块显卡对奇数帧线和偶数帧线分别渲染,然后将同时渲染完毕的帧线进行合并后写入到帧缓冲中,接下来显示器就可以显示出一幅完整的画面。而nVIDIA的SLI则有两种渲染模式:分割帧渲染模式(Scissor Frame Rendering,SFR)和交替帧渲染模式(Alternate Frame Rendering,AFR),分割帧渲染模式是将每帧画面划分为上下两个部分,主显卡完成上部分画面渲染,副显卡则完成下半部分的画面渲染,然后副显卡将渲染完毕的画面传输给主显卡,主显卡再将它与自己渲染的上半部分画面合成为一幅完整的画面;而交替帧渲染模式则是一块显卡负责渲染奇数帧画面,而另外一块显卡则负责渲染偶数帧画面,二者交替渲染,在这种模式下,两块显卡实际上都是渲染的完整的画面,此时 并不需要连接显示器的主显卡做画面合成工作。 在SLI状态下,特别是在分割帧渲染模式下,两块显卡并不是对等的,在运行工作中,一块显卡做为主卡(Master),另一块做为副卡(Slave),其中主卡负责任务指派、渲染、后期合成、输出等运算和控制工作,而副卡只是接收来自主卡的任务进行相关处理,然后将结果 传回主卡进行合成然后输出到显示器。由于主显卡除了要完成自己的渲染任务之外,还要额外担负副显卡所传回信号的合成工作,所以其工作量要比副显卡大得多。另外,在SLI模式下,就只能连接一台显示器,并不能支持多头显示。 SLI技术也在不断的发展,最初对平台硬件有许多限制,例如必须使用完全一样的显卡(同一个厂家同一个型号的显卡,甚至显卡BIOS也必须相同),而且在两块显卡之间还必须使用SLI桥接器,支持SLI的也只有Geforce 6800 Ultra/6800 GT和6600GT三款显示芯片等等。现在组建SLI则可以使用不同厂家的采用相同显示芯片的显卡,低速显卡可以不必使用SLI桥接器(不过性能要比使用SLI桥接器时有所降低),支持SLI的显示芯片也扩大到了除开Geforce 6200/6200TC之外的所有Geforce 6系列以及所有Geforce 7系列等等,不过,由于各个主板的两个PCI-E插槽的间距不是固定的,因此不同主板的SLI桥接器一般是不能替换的。 SLI桥接器 用SIL桥接器连接的两个显卡 SLI技术理论上能把图形处理能力提高一倍,在实际应用中,除了极少数测试之外,在实际游戏中图形性能只能提高30%-70%不等,在某些情况下甚至根本没有性能提高,而且目前能良好支持SLI的游戏还不太多。当然,随着驱动程序的完善,目前存在的这些问题应该能得到逐步解决。 主板芯片组根据其对两块显卡实际提供的PCI Express Lanes,支持SLI的方式也不尽相同,有采用PCI Express X16加PCI Express X4的,也有采用双PCI Express X8的,nVIDIA自己的nForce Pro 2200+nForce Pro 2050以及nForce4 SLI X16和nForce4 SLI X16 IE则实现了真正的双PCI Express X16的SLI。 南桥芯片 南桥芯片(South Bridge)是主板芯片组的重要组成部分,一般位于主板上离CPU插槽较远的下方,PCI插槽的附近,这种布局是考虑到它所连接的I/O总线较多,离处理器远 一点有利于布线。相对于北桥芯片来说,其数据处理量并不算大,所以南桥芯片一般都没有覆盖散热片。南桥芯片不与处理器直接相连,而是通过一定的方式(不同厂商各种芯片组有所不同,例如英特尔的英特尔Hub Architecture以及SIS的Multi-Threaded“妙渠”)与北桥芯片相连。 南桥芯片负责I/O总线之间的通信,如PCI总线、USB、LAN、ATA、SATA、音频控制器、键盘控制器、实时时钟控制器、高级电源管理等,这些技术一般相对来说比较稳定,所以不同芯片组中可能南桥芯片是一样的,不同的只是北桥芯片。所以现在主板芯片组中北桥芯片的数量要远远多于南桥芯片。例如早期英特尔不同架构的芯片组Socket 7的430TX和Slot 1的440LX其南桥芯片都采用82317AB,而近两年的芯片组845E/845G/845GE/845PE等配置都采用ICH4南桥芯片,但也能搭配ICH2南桥芯片。更有甚者,有些主板厂家生产的少数产品采用的南北桥是不同芯片组公司的产品,例如以前升技的KG7,RAID主板,北桥采用了AMD 760,南桥则是VIA 686B。 南桥芯片的发展方向主要是集成更多的功能,例如网卡、RAID、IEEE 1394、甚至WI-FI无线网络等等。 上图中,中间靠下的那个较大的芯片,就是主板的南桥芯片,放大后效果如下图: 电源回路 电源回路是主板中的一个重要组成部分,其作用是对主机电源输送过来的电流进行电压的转换,将电压变换至CPU所能接受的内核电压值,使CPU正常工作,以及对主机电源输送过来的电流进行整形和过滤,滤除各种杂波和干扰信号以保证电脑的稳定工作。电源回路的主要部分一般都位于主板CPU插槽附近。 电源回路依其工作原理可分为线性电源供电方式和开关电源供电方式。 线性电源供电方式 这是好多年以前的主板供电方式,它是通过改变晶体管的导通程度来实现的,晶体管相当于一个可变电阻,串接在供电回路中。由于可变电阻与负载流过相同的电流,因此要消耗 掉大量的能量并导致升温,电压转换效率低。尤其是在需要大电流的供电电路中线性电源无法使用。目前这种供电方式早已经被淘汰掉了。 开关电源供电方式 这是目前广泛采用的供电方式,PWM控制器IC芯片提供脉宽调制,并发出脉冲信号,使得场效应管MOSFET1与MOSFET2轮流导通。扼流圈L0与L1是作为储能电感使用并与相接的电容组成LC滤波电路。 其工作原理是这样的:当负载两端的电压VCORE(如CPU需要的电压)要降低时,通过MOSFET场效应管的开关作用,外部电源对电感进行充电并达到所需的额定电压。当负载两端的电压升高时,通过MOSFET场效应管的开关作用,外部电源供电断开,电感释放出刚才充入的能量,这时的电感就变成了电源继续对负载供电。随着电感上存储能量的消耗,负载两端的电压开始逐渐降低,外部电源通过MOSFET场效应管的开关作用又要充电。依此类推在不断地充电和放电的过程中就行成了一种稳定的电压,永远使负载两端的电压不会升高也不会降低,这就是开关电源的最大优势。还有就是由于MOSFET场效应管工作在开关状态,导通时的内阻和截止时的漏电流都较小,所以自身耗电量很小,避免了线性电源串接在电路中的电阻部分消耗大量能量的问题。这也就是所谓的“单相电源回路”的工作原理。 单相供电一般可以提供最大25A的电流,而现今常用的CPU早已超过了这个数字,P4处理器功率可以达到70-80瓦,工作电流甚至达到50A,单相供电无法提供足够可靠的动力,所以现在主板的供电电路设计都采用了两相甚至多相的设计。(如图2)就是一个两相供电的示意图,很容易看懂,就是两个单相电路的并联,因此它可以提供双倍的电流供给,理论上可以绰绰有余地满足目前CPU的需要了。但上述只是纯理论,实际情况还要添加很多因素,如开关元件性能,导体的电阻,都是影响Vcore的要素。实际应用中存在供电部分的效率问题,电能不会100%转换,一般情况下消耗的电能都转化为热量散发出来,所以我们常见的任何稳压电源总是电器中最热的部分。要注意的是,温度越高代表其效率越低。这样一来,如果电路的转换效率不是很高,那么采用两相供电的电路就可能无法满足CPU 的需要,所以又出现了三相甚至更多相供电电路。但是,这也带来了主板布线复杂化,如果此时布线设计如果不很合理,就会影响高频工作的稳定性等一系列问题。目前在市面上见到的主流主板产品有很多采用三相供电电路,虽然可以供给CPU足够动力,但由于电路设计的不足使主板在极端情况下的稳定性一定程度上受到了限制,如要解决这个问题必然会在电路设计布线方面下更大的力气,而成本也随之上升了。 电源回路采用多相供电的原因是为了提供更平稳的电流,从控制芯片PWM发出来的是那种脉冲方波信号,经过LC震荡回路整形为类似直流的电流,方波的高电位时间很短,相越多,整形出来的准直流电越接近直流。 电源回路对电脑的性能发挥以及工作的稳定性起着非常重要的作用,是主板的一个重要的性能参数。在选购时应该选择主流大厂设计精良,用料充足的产品。 什么是HDR(高清渲染) 传统的渲染(LDR)都是采用8位的纹理格式(24/32位颜色每个像素)。 NVIDIA的HDR可以支持电影业经常使用的fp16/fp32的纹理格式(每像素采用64/128位浮点数)并支持fp16格式的混合和滤波操作。 LDR只能表现256:1的光线范围,而人眼可以感知1014:1的颜色范围。因此LDR不能真实地表现真实世界的光照情况。 NVIDIA HDR技术采用fp16的纹理格式,支持1012:1的颜色范围,因此可以非常逼真地表现实际的光照。 HDR实际上就是游戏中做到做到亮的地方真正地亮,暗的地方真正地暗。 金手指 金手指(connecting finger)是内存条上与内存插槽之间的连接部件,所有的信号都是通过金手指进行传送的。金手指由众多金黄色的导电触片组成,因其表面镀金而且导电触片排列如手指状,所以称为“金手指”。金手指实际上是在覆铜板上通过特殊工艺再覆上一层金,因为金的抗氧化性极强,而且传导性也很强。不过因为金昂贵的价格,目前较多的内存都采用镀锡来代替,从上个世纪90年代开始锡材料就开始普及,目前主板、内存和显卡等设备的“金手指”几乎都是采用的锡材料,只有部分高性能服务器/工作站的配件接触点才会继续采用镀金的做法,价格自然不菲。 内存处理单元的所有数据流、电子流正是通过金手指与内存插槽的接触与PC系统进行交换,是内存的输出输入端口,因此其制作工艺对于内存连接显得相当重要。 3D API API是Application Programming Interface的缩写,是应用程序接口的意思,而3D API则是指显卡与应用程序直接的接口。3D API能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提高了3D程序的设计效率。 如果没有3D API在开发程序时,程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。而有了3D API这个显卡与软件直接的接口, 程序员只需要编写符合接口的程序代码,就可以充分发挥显卡的不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率。 同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3D API,便可实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3D API的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照3D API的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。 目前个人电脑中主要应用的3D API有DirectX和OpenGL。DirectX目前已经成为游戏的主流,市售的绝大部分主流游戏均基于DirectX开发,例如《帝国时代3》、《孤岛惊魂》、《使命召唤2》、《Half Life2》等流行的优秀游戏。而OpenGL目前则主要应用于专业的图形工作站,在游戏方面历史上也曾经和DirectX分庭抗礼,产生了一大批的优秀游戏,例如《Quake3》、《Half Life》、《荣誉勋章》的前几部、《反恐精英》等,目前在DirectX的步步进逼之下,采用OpenGL的游戏已经越来越少,但也不乏经典大作,例如基于OpenGL的《DOOM3》以及采用DOOM3引擎的《Quake4》等等,无论过去还是现在, OpenGL在游戏方面的主要代表都是著名的id Software。 什么是HDTV HDTV(High Definition Television)是一种数字电视技术,但HDTV是高清晰数字电视输出技术,可提供相对于传统模拟电视技术更高清晰度图象质量。HDTV的高清晰主要表现在它支持1280×720,1920×1080和1920×1080三种显示模式。HDTV的视频信号采用MPEG2进行压缩。 显示芯片制作工艺 显示芯片的制造工艺与CPU一样,也是用微米来衡量其加工精度的。制造工艺的提高,意味着显示芯片的体积将更小、集成度更高,可以容纳更多的晶体管,性能会更加强大,功耗也会降低。 和中央处理器一样,显示卡的核心芯片,也是在硅晶片上制成的。采用更高的制造工艺,对于显示核心频率和显示卡集成度的提高都是至关重要的。而且重要的是制程工艺的提高可以有效的降低显卡芯片的生产成本。 微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、0.11微米、0.09微米一直发展到当前的0.08微米。 显存带宽 显存带宽是指显示芯片与显存之间的数据传输速率,它以字节/秒为单位。显存带宽是决定显卡性能和速度最重要的因素之一。要得到精细(高分辨率)、色彩逼真(32位真彩)、流畅(高刷新速度)的3D画面,就必须要求显卡具有大显存带宽。目前显示芯片的性能已达到很高的程度,其处理能力是很强的,只有大显存带宽才能保障其足够的数据输入和输出。随着多媒体、3D游戏对硬件的要求越来越高,在高分辨率、32位真彩和高刷新率的3D画面面前,相对于GPU,较低的显存带宽已经成为制约显卡性能的瓶颈。显存带宽是目前决定显卡图形性能和速度的重要因素之一。 显存带宽的计算公式为:显存带宽,工作频率×显存位宽/8。目前大多中低端的显卡都能提供6.4GB/s、8.0GB/s的显存带宽,而对于高端的显卡产品则提供超过20GB/s的显存带宽。在条件允许的情况下,尽可能购买显存带宽大的显卡,这是一个选择的关键。 显存频率 显存频率是指默认情况下,该显存在显卡上工作时的频率,以MHz(兆赫兹)为单位。显存频率一定程度上反应着该显存的速度。显存频率随着显存的类型、性能的不同而不同,SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。DDR SDRAM显存则能提供较高的显存频率,主要在中低端显卡上使用,DDR2显存由于成本高并且性能一般,因此使用量不大。DDR3显存是目前高端显卡采用最为广泛的显存类型。不同显存能提供的显存频率也差异很大,主要有400MHz、 500MHz、600MHz、650MHz等,高端产品中还有800MHz、1200MHz、1600MHz,甚至更高。 显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率,1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz。而对于DDR SDRAM或者DDR2、DDR3,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。具体情况可以看下边关于各种显存的介绍。 但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。此外,用于显卡的显存,虽然和主板用的内存同样叫DDR、DDR2甚至DDR3,但是由于规范参数差异较大,不能通用,因此也可以称显存为GDDR、GDDR2、GDDR3。 BIOS 计算机用户在使用计算机的过程中,都会接触到BIOS,它在计算机系统中起着非常重要的作用。一块主板性能优越与否,很大程度上取决于主板上的BIOS管理功能是否先进。 BIOS(Basic Input/Output System,基本输入输出系统)全称是ROM,BIOS,是只读存储器基本输入,输出系统的简写,它实际是一组被固化到电脑中,为电脑提供最低级最直接的硬件控制的程序,它是连通软件程序和硬件设备之间的枢纽,通俗地说,BIOS是硬件与软件程序之间的一个“转换器”或者说是接口(虽然它本身也只是一个程序),负责解决 硬件的即时要求,并按软件对硬件的操作要求具体执行。 BIOS芯片是主板上一块长方型或正方型芯片,BIOS中主要存放: 1. 自诊断程序:通过读取CMOS RAM中的内容识别硬件配置,并对其进行自检和初 始化; 2. CMOS设置程序:引导过程中,用特殊热键启动,进行设置后,存入CMOS RAM 中; 3. 系统自举装载程序:在自检成功后将磁盘相对0道0扇区上的引导程序装入内存, 让其运行以装入DOS系统; 4. 主要I,O设备的驱动程序和中断服务; 由于BIOS直接和系统硬件资源打交道,因此总是针对某一类型的硬件系统,而各种硬件系统又各有不同,所以存在各种不同种类的BIOS,随着硬件技术的发展,同一种BIOS也先后出现了不同的版本,新版本的BIOS比起老版本来说,功能更强。 BIOS的功能 目前市场上主要的BIOS有AMI BIOS和Award BIOS以及Phoenix BIOS,其中,Award和Phoenix已经合并,二者的技术也互有融合。从功能上看,BIOS分为三个部分: , 自检及初始化程序; , 硬件中断处理; , 程序服务请求; (一)自检及初始化 这部分负责启动电脑,具体有三个部分,第一个部分是用于电脑刚接通电源时对硬件部分的检测,也叫做加电自检(Power On Self Test,简称POST),功能是检查电脑是否良好,通常完整的POST自检将包括对CPU,640K基本内存,1M以上的扩展内存,ROM,主板,CMOS存储器,串并口,显示卡,软硬盘子系统及键盘进行测试,一旦在自检中发现问题,系统将给出提示信息或鸣笛警告。自检中如发现有错误,将按两种情况处理:对于严重故障(致命性故障)则停机,此时由于各种初始化操作还没完成,不能给出任何提 示或信号;对于非严重故障则给出提示或声音报警信号,等待用户处理。 第二个部分是初始化,包括创建中断向量、设置寄存器、对一些外部设备进行初始化和检测等,其中很重要的一部分是BIOS设置,主要是对硬件设置的一些参数,当电脑启动时会读取这些参数,并和实际硬件设置进行比较,如果不符合,会影响系统的启动。 最后一个部分是引导程序,功能是引导DOS或其他操作系统。BIOS先从软盘或硬盘的开始扇区读取引导记录,如果没有找到,则会在显示器上显示没有引导设备,如果找到引导记录会把电脑的控制权转给引导记录,由引导记录把操作系统装入电脑,在电脑启动成功后,BIOS的这部分任务就完成了。 (二)程序服务处理和硬件中断处理 这两部分是两个独立的内容,但在使用上密切相关。 程序服务处理程序主要是为应用程序和操作系统服务,这些服务主要与输入输出设备有关,例如读磁盘、文件输出到打印机等。为了完成这些操作,BIOS必须直接与计算机的I,O设备打交道,它通过端口发出命令,向各种外部设备传送数据以及从它们那儿接收数据,使程序能够脱离具体的硬件操作,而硬件中断处理则分别处理PC机硬件的需求,因此这两部分分别为软件和硬件服务,组合到一起,使计算机系统正常运行。 BIOS的服务功能是通过调用中断服务程序来实现的,这些服务分为很多组,每组有一个专门的中断。例如视频服务,中断号为10H;屏幕打印,中断号为05H;磁盘及串行口服务,中断14H等。每一组又根据具体功能细分为不同的服务号。应用程序需要使用哪些外设、进行什么操作只需要在程序中用相应的指令说明即可,无需直接控制。 CMOS是互补金属氧化物半导体的缩写。其本意是指制造大规模集成电路芯片用的一种技术或用这种技术制造出来的芯片。在这里通常是指电脑主板上的一块可读写的RAM芯片。它存储了电脑系统的实时钟信息和硬件配置信息等。系统在加电引导机器时,要读取CMOS信息,用来初始化机器各个部件的状态。它靠系统电源和后备电池来供电,系统掉电后其信息不会丢失。 CMOS与BIOS的区别 由于CMOS与BIOS都跟电脑系统设置密切相关,所以才有CMOS设置和BIOS设置的说法。也正因此,初学者常将二者混淆。CMOS RAM是系统参数存放的地方,而BIOS中系统设置程序是完成参数设置的手段。因此,准确的说法应是通过BIOS设置程序对CM OS参数进行设置。而我们平常所说的CMOS设置和BIOS设置是其简化说法,也就在一定程度上造成了两个概念的混淆。 升级BIOS的作用 现在的BIOS芯片都采用了Flash ROM,都能通过特定的写入程序实现BIOS的升级,升级BIOS主要有两大目的: , 免费获得新功能 升级BIOS最直接的好处就是不用花钱就能获得许多新功能,比如能支持新频率和新类型的CPU,例如以前的某些老主板通过升级BIOS支持图拉丁核心Pentium III和Celeron,现在的某些主板通过升级BIOS能支持最新的Prescott核心Pentium 4E CPU;突破容量限制,能直接使用大容量硬盘;获得新的启动方式;开启以前被屏蔽的功能,例如英特尔的超线程技术,VIA的内存交错技术等;识别其它新硬件等。 , 解决旧版BIOS中的BUG BIOS既然也是程序,就必然存在着BUG,而且现在硬件技术发展日新月异,随着市场竞争的加剧,主板厂商推出产品的周期也越来越短,在BIOS编写上必然也有不尽如意的地方,而这些BUG常会导致莫名其妙的故障,例如无故重启,经常死机,系统效能低下,设备冲突,硬件设备无故“丢失”等等。在用户反馈以及厂商自己发现以后,负责任的厂商都会及时推出新版的BIOS以修正这些已知的BUG,从而解决那些莫名其妙的故障。 由于BIOS升级具有一定的危险性,各主板厂商针对自己的产品和用户的实际需求,也开发了许多BIOS特色技术。例如BIOS刷新方面的有著名的技嘉的@BIOS Writer,支持技嘉主板在线自动查找新版BIOS并自动下载和刷新BIOS,免除了用户人工查找新版BIOS的麻烦,也避免了用户误刷不同型号主板BIOS的危险,而且技嘉@BIOS还支持许多非技嘉主板在windows下备份和刷新BIOS;其它相类似的BIOS特色技术还有华硕的Live Update,升技的Abit Flash Menu,QDI的Update Easy,微星的Live Update 3等等,微星的Live Update 3除了主板BIOS,对微星出品的显卡BIOS以及光存储设备的Firmware也能自动在线刷新,是一款功能非常强大的微星产品专用工具。此外,英特尔原装主板 的Express BIOS Update技术也支持在windows下刷新BIOS,而且此技术是BIOS文件与刷新程序合一的可执行程序,非常适合初学者使用。在预防BIOS被破坏以及刷新失败方面有技嘉的双BIOS技术,QDI的金刚锁技术,英特尔原装主板的Recovery BIOS技术等等。 除了厂商的新版BIOS之外,其实我们自己也能对BIOS作一定程度上的修改而获得某些新功能,例如更改能源之星LOGO,更改全屏开机画面,获得某些品牌主板的特定功能(例如为非捷波主板添加捷波恢复精灵模块),添加显卡BIOS模块拯救BIOS损坏的显卡,打开被主板厂商屏蔽了的芯片组功能,甚至支持新的CPU类型,直接支持大容量的硬盘而不用DM之类的软件等等。不过这些都需要对BIOS非常熟悉而且有一定的动手能力和经验以后才能去做。 什么是CPU倍频 什么是CPU倍频, CPU的倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以0.5为一个间隔单位。外频与倍频相乘就是主频,所以其中任何一项提高都可以使CPU的主频上升。 原先并没有倍频概念,CPU的主频和系统总线的速度是一样的,但CPU的速度越来越快,倍频技术也就应允而生。它可使系统总线工作在相对较低的频率上,而CPU速度可以通过倍频来无限提升。那么CPU主频的计算方式变为:主频 = 外频 x 倍频。也就是倍频是指CPU和系统总线之间相差的倍数,当外频不变时,提高倍频,CPU主频也就越高。 一个CPU默认的倍频只有一个,主板必须能支持这个倍频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,无法修改。 支持内存最大容量 主板所能支持内存的最大容量是指最大能在该主板上插入多大容量的内存条,超过容量的内存条即便插在主板上,主板也无不支持。主板支持的最大内存容量理论上由芯片组所决定,北桥决定了整个芯片所能支持的最大内存容量。但在实际应用中,主板支持的最大内存容量还受到主板上内存插槽数量的限制,主板制造商出于设计、成本上的需要,可能会在主板上采用较少的内存插槽,此时即便芯片组支持很大的内存容量,但主板上并没有足够的内存插槽供适用,就没法达到理论最大值。 比如KT600北桥最大能支持4GB的内存,但大部分的主板厂商只提供了两个或三个184pin的DDR DIMM内存插槽,其支持最大内存容量就只能达到2GB或3GB。 盘片数 盘片是硬盘中承载数据存储的介制,硬盘是由多个盘片叠加在一起,互相之间由垫圈隔开。硬盘盘片是以坚固耐用的材料为盘基,其上在附着磁性物质,表面被加工的相当平滑。因为盘片在硬盘内部高速旋转(有5400转、7200转、10000转,甚至15000转),因此制作盘片的材料硬度和耐磨性要求很高,所以一般采用合金材料,多数为铝合金。 硬盘盘片是随着硬盘的发展而不断进步的,早期的硬盘盘片都是使用塑料材料作为盘基,然后再在塑料盘基上涂上磁性材料就构成了硬盘的盘片。后来随着硬盘转速和容量的提高又出现的金属盘基的盘片,金属材料的盘基具有更高的记录密度、更强的硬度,在安全性上也要强于塑料盘基。目前市场中主流的硬盘都是采用铝材料的金属盘基。 而IBM等厂商还推出过以石英玻璃为盘基的“玻璃盘片”,但初期的玻璃盘片在发热等技 术方面处理的并不得当,导致部分产品使用中极易出现故障。但玻璃盘片是一种比铝更为坚固耐用的盘片材质,盘片高速运转时的稳定性和可靠性都有所提高,而且玻璃盘片表面更为平滑,技术上还是领先于金属盘片的。 由于盘片上的记录密度巨大,而且盘片工作时的高速旋转,为保证其工作的稳定,数据保存的长久,硬片都是密封在硬盘内部。万万不可自行拆卸硬盘,在普通环境下空气中的灰尘,都会对硬盘造成永久伤害,更不能用器械或手指碰触盘片。 系统时钟周期 tCK(TCLK)为时钟周期,它代表SDRAM所能运行的最大频率。数字越小说明SDRAM芯片所能运行的频率就越高。对于一片普通的PC 100 SDRAM来说,它芯片上的标识“-10”代表了它的运行时钟周期为10ns,即可以在100MHz的外频下正常工作。 平均寻道时间 平均寻道时间的英文拼写是Average Seek Time,它是了解硬盘性能至关重要的参数之一。它是指硬盘在接收到系统指令后,磁头从开始移动到移动至数据所在的磁道所花费时间的平均值,它一定程度上体现硬盘读取数据的能力,是影响硬盘内部数据传输率的重要参数,单位为毫秒(ms)。不同品牌、不同型号的产品其平均寻道时间也不一样,但这个时间越低,则产品越好,现今主流的硬盘产品平均寻道时间都在在9ms左右。 平均寻道时间实际上是由转速、单碟容量等多个因素综合决定的一个参数。一般来说,硬盘的转速越高,其平均寻道时间就越低;单碟容量越大,其平均寻道时间就越低。当单碟片容量增大时,磁头的寻道动作和移动距离减少,从而使平均寻道时间减少,加快硬盘速度。当然处于市场定位以及噪音控制等方面的考虑,厂商也会人为的调整硬盘的平均寻道时间。 在硬盘上数据是分磁道、分簇存储的,经常的读写操作后,往往数据并不是连续排列在同一磁道上,所以磁头在读取数据时往往需要在磁道之间反复移动,因此平均寻道时间在数据传输中起着十分重要的作用。在读写大量的小文件时,平均寻道时间也起着至关重要的作 用。在读写大文件或连续存储的大量数据时,平均寻道时间的优势则得不到体现,此时单碟容量的大小、转速、缓存就是较为重要的因素。 IDE与ATA区别 IDE即Integrated Drive Electronics,它的本意是指把控制器与盘体集成在一起的硬盘驱动器,我们常说的IDE接口,也叫ATA(Advanced Technology Attachment)接口,现在PC机使用的硬盘大多数都是IDE兼容的,只需用一根电缆将它们与主板或接口卡连起来就可以了。 IDE接口是由Western Digital与COMPAQ Computer两家公司所共同发展出来的接口。因为技术不断改进,新一代Enhanced IDE(加强型IDE,简称为EIDE)最高传输速度可高达100MB,秒(Ultra ATA,100)。 IDE接口有两大优点:易于使用与价格低廉,问世后成为最为普及的磁盘接口。但是随着CPU速度的增快以及应用软件与环境的日趋复杂,IDE的缺点也开始慢慢显现出来。Enhanced IDE就是Western Digital公司针对传统IDE接口的缺点加以改进之后所推出的新接口。Enhanced IDE使用扩充CHS(Cylinder-Head-Sector)或LBA(Logical Block Addres sing)寻址的方式,突破528MB的容量限制,可以顺利地使使用容量达到数十GB等级的IDE硬盘。 在PC中,I/O设备,如硬盘驱动,不是直接与系统中央总线连接的(AT总线在AT系统,或PCI总线在之后的系统)。而I/O设备与接口芯片相连,而接口芯片与系统总线连接。 接口芯片组成了I/O设备与系统总线的桥,在系统总线协议(PCI或AT)与I/O设备协议(如IDE或SCSI)之间进行翻译。这使I/O设备可以独立于系统总线协议。 下图展示了PC工作站的基本系统结构,展示了IDE设备与系统余下部分的关系。 1.2 IDE传输模式 IDE硬盘接口的几种传输模式有明显区别。IDE接口硬盘的传输模式,经历过三个不同 O)模式,DMA(Direct Memory Access)模式,直至的技术变化,由PIO(Programmed I, 现今的Ultra DMA模式(简称UDMA)。 PIO(Programmed I,O)模式的最大弊端是耗用极大量的中央处理器资源,在以前还未有DMA模式光驱的时候,光驱都是以PIO模式运行。大家可能还记得,当时用光驱播放VCD光盘,再配以软件解压,就算使用Pentium 166,其流畅度也不理想,这就是处理器被长期大量占用的缘故。以PIO模式运行的IDE接口,数据传输率达3(3MB,秒(PIO mode 0)至16(MB,秒(PIO mode 4)不等。后来随着Fast ATA,DMA模式的出现,IDE接口及装置都开始有了DMA的支持,DMA模式分为Single-Word DMA及Multi - Word DMA两种,跟PIO模式的最大区别是:DMA模式并不用过分依赖CPU的指令而运行,可达到节省处理器运行资源的效果。不过,后来由于Ultra DMA模式的出现和决速普及。这两个模式也只会是昙花一现,不久即被UDMA所取代。Single-Word DMA模式的最高传输率达8(33MB,秒,Multi-Word DMA(Double Word)则可达16(66MB/秒。 由于Ultra DMA模式(Ultra ATA制式下所引用的一个标准)的普及,UDMA模式就全以16-bit Multi-Word DMA模式作为基准。UDMA其中一个优点是它除已拥有DMA模式的优点外,更应用了CRC(Cyclic Redundancy Check)技术,加强了资料在传送过程中侦错及除错方面的效能。在最初UATA,33规格制定时,为了保留IDE系统的最高兼容性,所以在硬件的设计上并没做出太大的修改,不仅能完全向下兼容旧式ATA装置,也无需硬件生产商改变接头及讯号联接的设计。自Ultra ATA标准推行以来,其接口便应用了DDR(Double Data Rate 技术将传输的速度提升了一倍,目前已发展到Ultra ATA,100了,其传输速度高达100MB,秒。 Ultra DMA/66/100专用的硬盘连接线和一般的40芯连接线有所不同。Quantum在制定Ultra ATA,66的同时,在旧有IDE排线的规格上略作修改。除沿用40芯的IDE接头 外,排线更换成80芯,在原有40芯排线的每条线芯之间,都多加一条线来相隔,并将这40条新线跟原先40芯排线之中原有的7条地线相连,把构成Crosstalk现象的电磁波滤走而增加了数据传输的稳定性(在高速的电子讯号传输时,当一大堆带着高频讯号的电线互相靠近一起的时候,讯号线上发出的电磁波便会互相干扰,这就是所谓的“Crosstalk”现象)。Ultra ATA,66,100排线的基本规格是徘线全长不超过18英寸。也就是说要真正发挥Ultra DMA,66的高速传输是需硬盘、排线的配合的,当然如果搭配一般的40芯排线,Ultra DMA,66接口的硬盘依然能够以向下兼容的方式工作,只不过无法使用Ultra DMA,66罢了。 硬盘的传输模式进入UltraATA/100的时代。目前,硬盘的传输模式已由最早的PIO Mode 4(传输速率为16(6 MB,秒)进入UltraATA/100的时代。提醒DIY朋友注意,所选购的硬盘不仅要本身支持Ultra ATA,100,而所选购的主板的芯片组也要支持Ultra ATA,100,这样才能真正达到100MB/秒的传输速度。如果你现在使用的主板不支持Ultra ATA,1OO,只要购买一块i815E的主板或支持Ultra ATA,100的硬盘控制卡就行了。 Serial ATA:(即串行ATA),是英特尔公司在2000年IDF(Intel Developer Foru m,英特尔开发者论坛)上发布的将于下一代外设产品中采用的接口类型,就如其名所示,它以连续串行的方式传送资料,在同一时间点内只会有1位数据传输,此做法能减小接口的针脚数目,用四个针就完成了所有的工作(第1针发出、2针接收、3针供电、4针地线)。这样做法能降低电力消耗,减小发热量。目前市面也有了部份支持此接口的硬盘,如希捷公司推出的新款硬盘就支持串行ATA,不过非常少见。 1.3小结 ATA接口优点: <> 价格低廉 <> 兼容性非常好 ATA接口缺点: <> 速度慢 <> 只能内置使用 <> 对接口电缆的长度有很严格的限制 外部数据传输率 硬盘数据传输率的英文拼写为Data Transfer Rate,简称DTR。硬盘数据传输率表现出硬盘工作时数据传输速度,是硬盘工作性能的具体表现,它并不是一成不变的而是随着工作的具体情况而变化的。在读取硬盘不同磁道、不同扇区的数据;数据存放的是否连续等因素都会影响到硬盘数据传输率。因为这个数据的不确定性,所以厂商在标示硬盘参数时,更多是采用外部数据传输率(External Transfer Rate)和内部数据传输率(Internal Transfer Rate)。 外部数据传输率(External Transfer Rate),一般也称为突发数据传输或接口传输率。是指硬盘缓存和电脑系统之间的数据传输率,也就是计算机通过硬盘接口从缓存中将数据读出交给相应的控制器的速率。平常硬盘所采用的ATA66、ATA100、ATA133等接口,就是以硬盘的理论最大外部数据传输率来表示的。ATA100中的100就代表着这块硬盘的外部数据传输率理论最大值是100MB/s;ATA133则代表外部数据传输率理论最大值是133MB/s;而SATA接口的硬盘外部理论数据最大传输率可达150MB/s。这些只是硬盘理论上最大的外部数据传输率,在实际的日常工作中是无法达到这个数值的。 SATA与ATA区别 串行高级技术配件(SATA)是一项新兴的标准电子接口技术。SATA的性能有望超过前一代技术--并行ATA,因为它可以提供更高的性能,而成本却只是SCSI或光纤通道等传统存储技术的一小部分。 顾名思义,SATA只是一种串行链接接口标准,用来控制及传输服务器或存储设备到客户端应用之间的数据和信息。SATA用来把硬盘驱动器等存储设备连接到主板上,从而增强系统性能、提高效率、大幅降低开发成本。 要了解SATA的优点,就需要深入地了解并行ATA。并行ATA是基于集成驱动器电路(IDE)接口标准的一项硬驱技术,用于传输及交换计算机主板总线到磁盘存储设备间的数据。 许多低端的网络连接存储(NAS)设备之所以采用并行ATA驱动器,是因为成本效益。另外,还因为众多的高带宽应用,譬如备份与恢复、视频监控、视频处理以及使用磁盘而不是磁带的近线存储。 采用SATA的存储设备配置起来要比采用并行ATA简便得多,这归因于其较小的格式参数。SATA所用的电缆要比并行ATA更长、更细,后者采用又粗又短又容易断裂的电缆。另外,SATA采用7针数据连接器,而不是并行ATA的40针连接器。 连接到磁盘驱动器的粗电缆装配起来比较困难,还会堵住气流、导致发热,这一切都会影响硬件系统的总体性能和稳定性。SATA铺设及安装起来简单多了,紧凑性为主板和磁盘驱动器腾出了多余的空间。 SATA还采用低电压差分信号技术,这与低功耗和冷却的需求相一致。信号电压从并行ATA的5伏降低到了SATA的区区0.7伏。这不仅降低了磁盘驱动器的功耗,还缩小了开关控制器的尺寸。 这项接口技术采用了8/10位编码方法,即把8位数据字节编码成10位字符进行传输。采用串行技术以及8/10位编码法,不仅提高了总体的传输性能,还完全绕开了并行传输存在的问题。这种数据完整性很高的方案提供了必要的嵌入计时和重要的数据完整性检查功能,而这正是高速传输所需要的。 SATA采用了点对点拓扑结构,而不是普遍应用于并行ATA或SCSI技术的基于总线的架构,所以SATA可以为每个连接设备提供全部带宽,从而提高了总体性能。据SATA工作组(Serial ATA Working Group)声称,由于进度表包括了三代增强型数据传输速率: 设备的突发速率分别为150Mbps、300Mbps和600Mbps,SATA因而保证了长达10年的稳定而健康的发展期。这项新标准还向后兼容,这样串行格式转换成并行格式就更方便了,反之亦然,而且还会加快采用SATA的速度。 由于采用柔韧的细电缆、热插拔连接器、提高了数据可靠性和保障性,而且软件上完全兼容,SATA将给廉价的网络存储产品带来巨大的市场机会。许多磁盘驱动器和芯片生产商已经宣布推出支持SATA的产品,由80余家厂商组成的SATA工作组也得到了业界的广泛支持。 目前,SATA的成本比并行ATA高出15%左右,但差距正在迅速缩小。预计在不远的将来,SATA的成本将与如今的并行ATA持平。 单碟容量 单碟容量(storage per disk),是硬盘相当重要的参数之一,一定程度上决定着硬盘的档次高低。硬盘是由多个存储碟片组合而成的,而单碟容量就是一个存储碟所能存储的最大数据量。硬盘厂商在增加硬盘容量时,可以通过两种手段:一个是增加存储碟片的数量,但受到硬盘整体体积和生产成本的限制,碟片数量都受到限制,一般都在5片以内;而另一个办法就是增加单碟容量。 举个例子来说,单碟容量为60GB的希捷酷鱼五系列和单碟容量为80GB的希捷7200.7系列,如果都用2个盘片那么总容量将有40GB的差异,可见单碟容量对硬盘容量的影响。 同时,硬盘单碟容量的增加不仅仅可以带来硬盘总容量的提升,而且也有利于生产成本的控制,提高硬盘工作的稳定性。单碟容量的增加意味着厂商要在同样大小的盘片上建立更多的磁道数(数据存储在盘片的磁道中),虽然这在技术难度上对厂商要求很高,但盘片磁道密度(单位面积上的磁道数)提高,代表着数据密度的提高,这样在硬盘工作时盘片每转动一周,磁头所能读出的数据就越多,所以在相同转速的情况下,硬盘单碟容量越大其内部 数据传输速率就越快。另外单碟容量的提高使单位面积上的磁道条数也有所提高,这样硬盘寻道时间也会有所下降。 另外单碟容量的增加也能在一定程度上节省产品成本,举个例子来说,同样的120GB的硬盘,如果采用单碟容量40GB的盘片,那么将要有三张盘片和六个磁头;而采用单碟容量80GB的盘片,那么只需要两张盘片和三个磁头(盘片正反两面都可以存储数据,一面需要一个磁头),这样就能在尽可能节省更多的成本的条件下提高硬盘的总容量。单碟容量的增加也对磁头提出了更高的要求 单碟容量的提升是随着硬盘技术的逐渐提高的,在2000年时出现了单碟容量40GB的硬盘产品,但直到2001中旬才全面在市场中普及。到了2002年IBM、西部数据、希捷、三星都相继推出了单碟容量60GB的硬盘产品,最早单碟60GB容量的硬盘是三星于2002年5月推出的SpinPoint V60系列硬盘,其后的一个月内西部数据、希捷就发布了酷鱼V和鱼子酱系列7200rpm硬盘。 最早的单碟容量80GB的硬盘产品是Maxtor于2002年10月发布的DiamondMax Plus 9,希捷也紧随其后推出了酷鱼7200.7系列与5400.1系列单碟80GB的硬盘。 希捷在2003年的9月发布了单碟容量达100GB酷鱼7200.7 PLus 200GB硬盘,使得硬盘单碟容量又达到了一个新的高度。但人们对于硬盘存储空间的需求是不满足的,单碟容量的发展是不会就此止步的,更高容量的硬盘产品将不久之后出现在我们的视野中。 2005年9月,希捷(Seagate)发布了酷鱼7200.9(Barracuda 7200.9)系列硬盘,单碟容量提高到160GB,这几乎已经是传统的水平记录技术的技术极限,不对硬盘磁记录技术作出革新,单碟容量基本上已经无法提升。垂直记录技术适时出现,将硬盘的数据密度、容量和可靠性推进到一个全新的水平。传统的水平记录技术让数据位平铺在磁介质上,而垂直记录技术却让数据位竖立在磁介质上,极大的提高了磁记录密度,当然也就提高了单碟容量。 另外垂直记录技术还允许磁头在相同时间内扫描更多数据位,故能在不提高转速的情况下,提高硬盘的数据传输率。2006年4月,希捷(Seagate)率先将垂直记录技术运用于桌面硬盘,发布了采用垂直记录技术的酷鱼7200.10(Barracuda 7200.10)系列硬盘,最大单碟容量提高到188GB,这是目前所有硬盘产品中最高的单碟容量。随着垂直记录技术的继续发展和磁记录密度的提高,硬盘的单碟容量还会继续提升。 串行ATA也称作Serial ATA 1.0 作为增强型IDE或并行ATA(如ATA-100)接口的替代规范是在2001年发布的。串行ATA控制器可以做成PCI卡或整合到南桥I/O控制芯片里。串行ATA支持所有兼容ATA 或ATAPI的设备,包括硬盘、磁带机、CD、DVD及其他光学驱动器。 串行ATA在7针接口上以1500MHz的时钟频率传输速率可以达到150MB/s或1.5Gb/s。即将发布的规范定义了300MB/s(3000MHz时钟)以及600MB/s(6000MHz时钟)的传输速率。 串行ATA在软件上100%兼容现有的ATA协议,当前的操作系统不需要做改动或添加新的驱动程序就可以快速应用串行ATA。 串行ATA用最大长度是一米的电缆连接机箱内部的驱动器。这种电缆要比EIDE电缆窄,所以其更小更灵活。较小的电缆使得机箱内部通风更好,便于拆卸,同时也更美观。 为了提升性能和可靠性,串行ATA用点到点连接取代了ATA和SCSI并行界面那种近似共享式的连接。每个串行ATA控制器端口仅能连接一个设备;也就是说通过该端口的控制器仅能同指定的设备通信。因为总线没有共享,每个设备可以在任何时刻与系统直接通信。其结果是整个接口的有效带宽给了一个设备。这种连接方式在建立时没有象共享总线拓扑那样的仲裁延迟。在典型的ATA系统中增加一块硬盘后整个系统的吞吐量的增加会小于这块硬盘的吞吐量。而在串行ATA系统中每块加入的硬盘都能提供其最大吞吐量。点到点连接提供的另一个好处就是配置更加简化,令系统设置工作简单快速而且成本低廉。 为保证数据传输的可靠性串行ATA提供了循环冗余校验(CRC)进行错误检测。 什么是ATI 的PowerPlay Powerplay技术介绍: 在ATI移动图形芯片中特有的“PowerPlay技术”除了应用到HD3800系列之外,也应用到本次发售的HD3600系列显卡上面。 ATI PowerPlay最早在Mobility Radeon系列笔记本GPUs上使用,PowerPlay可以用动态方式调节电压及频率,同时可以根据游戏用户使用电脑的情况,即可动态调校核心频 率频率及电压。当系统处于闲置状态时,显示核心频率及电压就会降低,直到使用者重新使用计算机为止。 (图:在开启PowerPlay技术之后,系统的整机功耗平均下降12W左右,效果明显。) 转速 转速(Rotationl Speed),是硬盘内电机主轴的旋转速度,也就是硬盘盘片在一分钟内所能完成的最大转数。转速的快慢是标示硬盘档次的重要参数之一,它是决定硬盘内部传输率的关键因素之一,在很大程度上直接影响到硬盘的速度。硬盘的转速越快,硬盘寻找文件的速度也就越快,相对的硬盘的传输速度也就得到了提高。硬盘转速以每分钟多少转来表示,单位表示为RPM,RPM是Revolutions Perminute的缩写,是转/每分钟。RPM值越大,内部传输率就越快,访问时间就越短,硬盘的整体性能也就越好。 硬盘的主轴马达带动盘片高速旋转,产生浮力使磁头飘浮在盘片上方。要将所要存取资料的扇区带到磁头下方,转速越快,则等待时间也就越短。因此转速在很大程度上决定了硬盘的速度。 家用的普通硬盘的转速一般有5400rpm、7200rpm几种,高转速硬盘也是现在台式机用户的首选;而对于笔记本用户则是4200rpm、5400rpm为主,虽然已经有公司发布了7200rpm的笔记本硬盘,但在市场中还较为少见;服务器用户对硬盘性能要求最高,服务器中使用的SCSI硬盘转速基本都采用10000rpm,甚至还有15000rpm的,性能要超出家用 产品很多。 较高的转速可缩短硬盘的平均寻道时间和实际读写时间,但随着硬盘转速的不断提高也带来了温度升高、电机主轴磨损加大、工作噪音增大等负面影响。笔记本硬盘转速低于台式机硬盘,一定程度上是受到这个因素的影响。笔记本内部空间狭小,笔记本硬盘的尺寸(2.5寸)也被设计的比台式机硬盘(3.5寸)小,转速提高造成的温度上升,对笔记本本身的散热性能提出了更高的要求;噪音变大,又必须采取必要的降噪措施,这些都对笔记本硬盘制造技术提出了更多的要求。同时转速的提高,而其它的维持不变,则意味着电机的功耗将增大,单位时间内消耗的电就越多,电池的工作时间缩短,这样笔记本的便携性就收到影响。所以笔记本硬盘一般都采用相对较低转速的4200rpm硬盘。 转速是随着硬盘电机的提高而改变的,现在液态轴承马达(Fluid dynamic bearing m otors)已全面代替了传统的滚珠轴承马达。液态轴承马达通常是应用于精密机械工业上,它使用的是黏膜液油轴承,以油膜代替滚珠。这样可以避免金属面的直接磨擦,将噪声及温度被减至最低;同时油膜可有效吸收震动,使抗震能力得到提高;更可减少磨损,提高寿命。 服务器硬盘 服务器硬盘,顾名思义,就是服务器上使用的硬盘(Hard Disk)。如果说服务器是网络数据的核心,那么服务器硬盘就是这个核心的数据仓库,所有的软件和用户数据都存储在这里。对用户来说,储存在服务器上的硬盘数据是最宝贵的,因此硬盘的可靠性是非常重要的。为了使硬盘能够适应大数据量、超长工作时间的工作环境,服务器一般采用高速、稳定、安全的SCSI硬盘。 现在的硬盘从接口方面分,可分为IDE硬盘与SCSI硬盘(目前还有一些支持PCMCIA接口、IEEE 1394接口、SATA接口、USB接口和FC,AL(FibreChannel,Arbitrated Loop)光纤通道接口的产品,但相对来说非常少);IDE硬盘即我们日常所用的硬盘,它由于价格便宜而性能也不差,因此在PC上得到了广泛的应用,目前个人电脑上使用的硬盘绝 大多数均为此类型硬盘。另一类硬盘就是SCSI硬盘了(SCSI即Small Computer Syste m Interface小型计算机系统接口),由于其性能好,因此在服务器上普遍均采用此类硬盘产品,但同时它的价格也不菲,所以在普通PC上不常看到SCSI的踪影。 同普通PC机的硬盘相比,服务器上使用的硬盘具有如下四个特点。 1、速度快 服务器使用的硬盘转速快,可以达到每分钟7200或10000转,甚至更高;它还配置了较大(一般为2MB或4MB)的回写式缓存;平均访问时间比较短;外部传输率和内部传输率更高,采用Ultra Wide SCSI、Ultra2 Wide SCSI、Ultra160 SCSI、Ultra320 SCSI等标准的SCSI硬盘,每秒的数据传输率分别可以达到40MB、80MB、160MB、320MB。 2、可靠性高 因为服务器硬盘几乎是24小时不停地运转,承受着巨大的工作量。可以说,硬盘如果出了问题,后果不堪设想。所以,现在的硬盘都采用了S.M.A.R.T技术(自监测、分析和报告技术),同时硬盘厂商都采用了各自独有的先进技术来保证数据的安全。为了避免意外的损失,服务器硬盘一般都能承受300G到1000G的冲击力。 3、多使用SCSI接口 多数服务器采用了数据吞吐量大、CPU占有率极低的SCSI硬盘。SCSI硬盘必须通过SCSI接口才能使用,有的服务器主板集成了SCSI接口,有的安有专用的SCSI接口卡,一块SCSI接口卡可以接7个SCSI设备,这是IDE接口所不能比拟的。 4、可支持热插拔 热插拔(Hot Swap)是一些服务器支持的硬盘安装方式,可以在服务器不停机的情况下,拔出或插入 一块硬盘,操作系统自动识别硬盘的改动。这种技术对于24小时不间断运行的服务器来说,是非常必要的。 什麽是硬盘表面温度 指硬盘工作时产生的温度使硬盘密封壳温度上升情况。硬盘工作时产生的温度过高将影响薄膜式磁头(包括MR磁头)的数据读取灵敏度,因此硬盘工作表面温度较低的硬盘有更好的数据读、写稳定性。 什么是NCQ技术 SATA规范支持许多新的功能,其中之一就是NCQ(Native Command Queuing全速命令排队)技术。它是一种使硬盘内部优化工作负荷执行顺序,通过对内部队列中的命令进行重新排序实现智能数据管理,改善硬盘因机械部件而受到的各种性能制约。NCQ技术是SATA?规范中的重要组成部分,也是SATA?规范唯一与硬盘性能相关的技术。 首先让我们来看一下硬盘是怎样读写信息的。硬盘通过将信息写入磁盘磁道上的特定位置进行信息存储,硬盘访问磁盘上信息的过程如下: ? 寻找存储数据的目标磁碟(platter),访问该磁碟。 ? 寻找磁碟上存储数据的目标磁道(track),访问磁道。 ? 寻找磁道上存储数据的目标簇(cluster),访问簇。 ? 寻找簇上存书数据的目标扇区(sector),访问扇区。 ? 寻找目标数据,读取数据。 通过上面的步骤,硬盘即可获取所需要的数据信息。硬盘写入数据的步骤也是如此,区别仅仅在于读操作变为写操作。大多数情况下数据存入硬盘并非是顺序存入,而是随机存入,甚至有可能一个文件被分配在不同盘片上。对于不支持NCQ的硬盘来说,大量的数据读写需要反复重复上面的步骤,而对于不同位置的数据存取,磁头需要更多的操作,降低了存取效率。支持NCQ技术的硬盘对接收到的指令按照他们访问的地址的距离进行了重排列,这样对硬盘机械动作的执行过程实施智能化的内部管理,大大地提高整个的效率:即取 出队列中的命令,然后重新排序,以便有效地获取和发送主机请求的数据,在硬盘执行某一命令的同时,队列中可以加入新的命令并排在等待执行的作业中。显然,指令排列后减少了磁头臂来回移动的时间,使数据读取更有效。 如上图所示,如果新的命令恰好是处理起来机械效率最高的,那么它就是队列中要处理的下一个命令。举个例子:比如向硬盘下达一组数据传送指令,由于数据在磁盘上分布位不同,磁头可能会先读取260扇区,再读取7660扇区,然后又读取261扇区……如果我们对指令进行优化排列,可以先读260扇区,接着依次读261扇区,最后读取7660扇区……显然,指令排列后减少了磁头臂来回移动的时间,使数据读取更有效。并且有效的排序算法除了考虑目标数据的线性位置,也会考虑其角度位置,并且还要对线性位置和角度位置进行优化,以使总线的服务时间最小,这个过程也称做“基于寻道和旋转优化的命令重新排序”。 目前希捷、迈拓、日立等硬盘厂商已经在SATA硬盘中应用了NCQ技术。不过,要充分享用NCQ技术,光硬盘支持是不行的,还要对应的硬盘控制器(如南桥芯片中的磁盘控制器)支持才行。例如Intel从945芯片组的ICH7R南桥开始支持NCQ技术,nVidia从nForce4 SLI芯片组开始支持NCQ技术。 磁头数 硬盘磁头是硬盘读取数据的关键部件,它的主要作用就是将存储在硬盘盘片上的磁信息转化为电信号向外传输,而它的工作原理则是利用特殊材料的电阻值会随着磁场变化的原理 来读写盘片上的数据,磁头的好坏在很大程度上决定着硬盘盘片的存储密度。目前比较常用的是GMR(Giant Magneto Resisive)巨磁阻磁头,GMR磁头的使用了磁阻效应更好的材料和多层薄膜结构,这比以前的传统磁头和MR(Magneto Resisive)磁阻磁头更为敏感, 相对的磁场变化能引起来大的电阻值变化,从而实现更高的存储密度 。 磁头是硬盘中对盘片进行读写工作的工具,是硬盘中最精密的部位之一。磁头是用线圈缠绕在磁芯上制成的。硬盘在工作时,磁头通过感应旋转的盘片上磁场的变化来读取数据;通过改变盘片上的磁场来写入数据。为避免磁头和盘片的磨损,在工作状态时,磁头悬浮在高速转动的盘片上方,而不与盘片直接接触,只有在电源关闭之后,磁头会自动回到在盘片上的固定位置(称为着陆区,此处盘片并不存储数据,是盘片的起始位置)。 由于磁头工作的性质,对其磁感应敏感度和精密度的要求都非常高。早先的磁头采用铁磁性物质,在磁感应敏感度上不是很理想,因此早期的硬盘单碟容量都比较低,单碟容量大则碟片上磁道密度大,磁头感应程度不够,就无法准确读出数据。这就造成早期的硬盘容量都很有限。随着技术的发展,磁头在磁感应敏感度和精密度方面都有了长足的进步。 最初磁头是读、写功能一起的,这对磁头的制造工艺、技术都要求很高,而对于个人电脑来说,在与硬盘交换数据的过程中,读取数据远远快于写入数据,读、写操作二者的特性也完全不同,这也就导致了读、写分离的磁头,二者分别工作、各不干扰。 薄膜感应(TFI)磁头 在1990年至1995年间,硬盘采用TFI读/写技术。TFI磁头实际上是绕线的磁芯。盘片在绕线的磁芯下通过时会在磁头上产生感应电压。TFI读磁头之所以会达到它的能力极限,是因为在提高磁灵敏度的同时,它的写能力却减弱了。 各向异性磁阻(AMR)磁头 AMR(Anisotropic Magneto Resistive)90年代中期,希捷公司推出了使用AMR磁头的硬盘。AMR磁头使用TFI磁头来完成写操作,但用薄条的磁性材料来作为读元件。在 有磁场存在的情况下,薄条的电阻会随磁场而变化,进而产生很强的信号。硬盘译解由于磁场极性变化而引起的薄条电阻变化,提高了读取灵敏度。AMR磁头进一步提高了面密度,而且减少了元器件数量。由于AMR薄膜的电阻变化量有一定的限度,AMR技术最大可以支持3.3GB/平方英寸的记录密度,所以AMR磁头的灵敏度也存在极限。这导致了GMR磁头的研发。 GMR(Giant Magneto Resistive,巨磁阻) GMR磁头继承了TFI磁头和AMR磁头中采用的读/写技术。但它的读磁头对于磁盘上的磁性变化表现出更高的灵敏度。GMR磁头是由4层导电材料和磁性材料薄膜构成的:一个传感层、一个非导电中介层、一个磁性的栓层和一个交换层。GMR传感器的灵敏度比AMR磁头大3倍,所以能够提高盘片的密度和性能。 硬盘的磁头数取决于硬盘中的碟片数,盘片正反两面都存储着数据,所以一个盘片对应两个磁头才能正常工作。比如总容量80GB的硬盘,采用单碟容量80GB的盘片,那只有一张盘片,该盘片正反面都有数据,则对应两个磁头;而同样总容量120GB的硬盘,采用二张盘片,则只有三个磁头,其中一张盘片的一面没有磁头。 内存频率 内存主频和CPU主频一样,习惯上被用来表示内存的速度,它代表着该内存所能达到的最高工作频率。内存主频是以MHz(兆赫)为单位来计量的。内存主频越高在一定程度上代表着内存所能达到的速度越快。内存主频决定着该内存最高能在什么样的频率正常工作。目前较为主流的内存频率室333MHz和400MHz的DDR内存,以及533MHz和667MHz的DDR2内存。 大家知道,计算机系统的时钟速度是以频率来衡量的。晶体振荡器控制着时钟速度,在石英晶片上加上电压,其就以正弦波的形式震动起来,这一震动可以通过晶片的形变和大小记录下来。晶体的震动以正弦调和变化的电流的形式表现出来,这一变化的电流就是时钟信号。而内存本身并不具备晶体振荡器,因此内存工作时的时钟信号是由主板芯片组的北桥或 直接由主板的时钟发生器提供的,也就是说内存无法决定自身的工作频率,其实际工作频率是由主板来决定的。 DDR内存和DDR2内存的频率可以用工作频率和等效频率两种方式表示,工作频率是内存颗粒实际的工作频率,但是由于DDR内存可以在脉冲的上升和下降沿都传输数据,因此传输数据的等效频率是工作频率的两倍;而DDR2内存每个时钟能够以四倍于工作频率的速度读/写数据,因此传输数据的等效频率是工作频率的四倍。例如DDR 200/266/333/400的工作频率分别是100/133/166/200MHz,而等效频率分别是200/266/333/400MHz;DDR2 400/533/667/800的工作频率分别是100/133/166/200MHz,而等效频率分别是400/533/667/800MHz。 内存异步工作模式包含多种意义,在广义上凡是内存工作频率与CPU的外频不一致时都可以称为内存异步工作模式。首先,最早的内存异步工作模式出现在早期的主板芯片组中,可以使内存工作在比CPU外频高33MHz或者低33MHz的模式下(注意只是简单相差33MHz),从而可以提高系统内存性能或者使老内存继续发挥余热。其次,在正常的工作模式(CPU不超频)下,目前不少主板芯片组也支持内存异步工作模式,例如Intel 910GL芯片组,仅仅只支持533MHz FSB即133MHz的CPU外频,但却可以搭配工作频率为133MHz的DDR 266、工作频率为166MHz的DDR 333和工作频率为200MHz的DDR 400正常工作(注意此时其CPU外频133MHz与DDR 400的工作频率200MHz已经相差66MHz了),只不过搭配不同的内存其性能有差异罢了。再次,在CPU超频的情况下,为了不使内存拖CPU超频能力的后腿,此时可以调低内存的工作频率以便于超频,例如AMD的Socket 939接口的Opteron 144非常容易超频,不少产品的外频都可以轻松超上300MHz,而此如果在内存同步的工作模式下,此时内存的等效频率将高达DDR 600,这显然是不可能的,为了顺利超上300MHz外频,我们可以在超频前在主板BIOS中把内存设置为DDR 333或DDR 266,在超上300MHz外频之后,前者也不过才DDR 500(某些极品内存可以达到),而后者更是只有DDR 400(完全是正常的标准频率),由此可见,正确设置内存异步模式有助于超频成功。 目前的主板芯片组几乎都支持内存异步,英特尔公司从810系列到目前较新的875系列都支持,而威盛公司则从693芯片组以后全部都提供了此功能。 接口类型 硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中,硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上,硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中,也部分应用于服务器,SCSI接口的硬盘则主要应用于服务器市场,而光纤通道只在高端服务器上,价格昂贵。SATA是种新生的硬盘接口类型,还正出于市场普及阶段,在家用市场中有着广泛的前景。在IDE和SCSI的大类别下,又可以分出多种具体的接口类型,又各自拥有不同的技术规范,具备不同的传输速度,比如ATA100和SATA;Ultra160 SCSI和Ultra320 SCSI都代表着一种具体的硬盘接口,各自的速度差异也较大。 IDE IDE的英文全称为“Integrated Drive Electronics”,即“电子集成驱动器”,它的本意是指把“硬盘控制器”与“盘体”集成在一起的硬盘驱动器。把盘体与控制器集成在一起的做法减少了硬盘接口的电缆数目与长度,数据传输的可靠性得到了增强,硬盘制造起来变得更容易,因为硬盘生产厂商不需要再担心自己的硬盘是否与其它厂商生产的控制器兼容。对用户而言,硬盘安装起来也更为方便。IDE这一接口技术从诞生至今就一直在不断发展,性能也不断的提高,其拥有的价格低廉、兼容性强的特点,为其造就了其它类型硬盘无法替代的地位。 IDE代表着硬盘的一种类型,但在实际的应用中,人们也习惯用IDE来称呼最早出现IDE类型硬盘ATA-1,这种类型的接口随着接口技术的发展已经被淘汰了,而其后发展分支出更多类型的硬盘接口,比如ATA、Ultra ATA、DMA、Ultra DMA等接口都属于IDE硬盘。 SCSI SCSI的英文全称为“Small Computer System Interface”(小型计算机系统接口),是同IDE(ATA)完全不同的接口,IDE接口是普通PC的标准接口,而SCSI并不是专门为硬盘设计的接口,是一种广泛应用于小型机上的高速数据传输技术。SCSI接口具有应用范围广、多任务、带宽大、CPU占用率低,以及热插拔等优点,但较高的价格使得它很难如IDE硬盘般普及,因此SCSI硬盘主要应用于中、高端服务器和高档工作站中。 光纤通道 光纤通道的英文拼写是Fibre Channel,和SCIS接口一样光纤通道最初也不是为硬盘设计开发的接口技术,是专门为网络系统设计的,但随着存储系统对速度的需求,才逐渐应用到硬盘系统中。光纤通道硬盘是为提高多硬盘存储系统的速度和灵活性才开发的,它的出现大大提高了多硬盘系统的通信速度。光纤通道的主要特性有:热插拔性、高速带宽、远程连接、连接设备数量大等。 光纤通道是为在像服务器这样的多硬盘系统环境而设计,能满足高端工作站、服务器、海量存储子网络、外设间通过集线器、交换机和点对点连接进行双向、串行数据通讯等系统对高数据传输率的要求。 SATA 使用SATA(Serial ATA)口的硬盘又叫串口硬盘,是未来PC机硬盘的趋势。2001年,由Intel、APT、Dell、IBM、希捷、迈拓这几大厂商组成的Serial ATA委员会正式确立了Serial ATA 1.0规范,2002年,虽然串行ATA的相关设备还未正式上市,但Serial ATA委员会已抢先确立了Serial ATA 2.0规范。Serial ATA采用串行连接方式,串行ATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。 串口硬盘是一种完全不同于并行ATA的新型硬盘接口类型,由于采用串行方式传输数 据而知名。相对于并行ATA来说,就具有非常多的优势。首先,Serial ATA以连续串行的方式传送数据,一次只会传送1位数据。这样能减少SATA接口的针脚数目,使连接电缆数目变少,效率也会更高。实际上,Serial ATA 仅用四支针脚就能完成所有的工作,分别用于连接电缆、连接地线、发送数据和接收数据,同时这样的架构还能降低系统能耗和减小系统复杂性。其次,Serial ATA的起点更高、发展潜力更大,Serial ATA 1.0定义的数据传输率可达150MB/s,这比目前最新的并行ATA(即ATA/133)所能达到133MB/s的最高数据传输率还高,而在Serial ATA 2.0的数据传输率将达到300MB/s,最终SATA将实现600MB/s的最高数据传输率。 CL设置 CL(CAS Latency):为CAS的延迟时间,这是纵向地址脉冲的反应时间,也是在一定频率下衡量支持不同规范的内存的重要标志之一。 内存负责向CPU提供运算所需的原始数据,而目前CPU运行速度超过内存数据传输速度很多,因此很多情况下CPU都需要等待内存提供数据,这就是常说的“CPU等待时间”。内存传输速度越慢,CPU等待时间就会越长,系统整体性能受到的影响就越大。因此,快速的内存是有效提升CPU效率和整机性能的关键之一。 在实际工作时,无论什么类型的内存,在数据被传输之前,传送方必须花费一定时间去等待传输请求的响应,通俗点说就是传输前传输双方必须要进行必要的通信,而这种就会造成传输的一定延迟时间。CL设置一定程度上反映出了该内存在CPU接到读取内存数据的指令后,到正式开始读取数据所需的等待时间。不难看出同频率的内存,CL设置低的更具有速度优势。 上面只是给大家建立一个基本的CL概念,而实际上内存延迟的基本因素绝对不止这些。内存延迟时间有个专门的术语叫“Latency”。要形象的了解延迟,我们不妨把内存当成一个存储着数据的数组,或者一个EXCEL表格,要确定每个数据的位置,每个数据都是以行和列编排序号来标示,在确定了行、列序号之后该数据就唯一了。内存工作时,在要读取或写 入某数据,内存控制芯片会先把数据的列地址传送过去,这个RAS信号(Row Address Strobe,行地址信号)就被激活,而在转化到行数据前,需要经过几个执行周期,然后接下来CAS信号(Column Address Strobe,列地址信号)被激活。在RAS信号和CAS信号之间的几个执行周期就是RAS-to-CAS延迟时间。在CAS信号被执行之后同样也需要几个执行周期。此执行周期在使用标准PC133的SDRAM大约是2到3个周期;而DDR RAM则是4到5个周期。在DDR中,真正的CAS延迟时间则是2到2.5个执行周期。RAS-to-CAS的时间则视技术而定,大约是5到7个周期,这也是延迟的基本因素。 CL设置较低的内存具备更高的优势,这可以从总的延迟时间来表现。内存总的延迟时间有一个计算公式,总延迟时间=系统时钟周期×CL模式数+存取时间(tAC)。首先来了解一下存取时间(tAC)的概念,tAC是Access Time from CLK的缩写,是指最大CAS延迟时的最大数输入时钟,是以纳秒为单位的,与内存时钟周期是完全不同的概念,虽然都是以纳秒为单位。存取时间(tAC)代表着读取、写入的时间,而时钟频率则代表内存的速度。 举个例子来计算一下总延迟时间,比如一条DDR333内存其存取时间为6ns,而其内存时钟周期为6ns(DDR内存时钟周期,1X2/内存频率,DDR400内存频率为400,则可计算出其时钟周期为6ns)。我们在主板的BIOS中将其CL设置为2.5,则总的延迟时间,6ns X2.5,6ns,21ns,而如果CL设置为2,那么总的延迟时间,6ns X2,6ns,18 ns,就减少了3ns的时间。 从总的延迟时间来看,CL值的大小起到了很关键的作用。所以对系统要求高和喜欢超频的用户通常喜欢购买CL值较低的内存。目前各内存颗粒厂商除了从提高内存时钟频率来提高DDR的性能之外,已经考虑通过更进一步的降低CAS延迟时间来提高内存性能。 不过,并不是说CL值越低性能就越好,因为其它的因素会影响这个数据。例如,新一代处理器的高速缓存较有效率,这表示处理器比较少地直接从内存读取数据。再者,列的数据会比较常被存取,所以RAS-to-CAS的发生几率也大,读取的时间也会增多。最后,有时会发生同时读取大量数据的情形,在这种情形下,相邻的内存数据会一次被读取出来,C AS延迟时间只会发生一次。 选择购买内存时,最好选择同样CL设置的内存,因为不同速度的内存混插在系统内,系统会以较慢的速度来运行,也就是当CL2.5和CL2的内存同时插在主机内,系统会自动让两条内存都工作在CL2.5状态,造成资源浪费。 传输类型 传输类型指内存所采用的内存类型,不同类型的内存传输类型各有差异,在传输率、工作频率、工作方式、工作电压等方面都有不同。目前市场中主要有的内存类型有SDRAM、DDR SDRAM和RDRAM三种,其中DDR SDRAM内存占据了市场的主流,而SDRAM内存规格已不再发展,处于被淘汰的行列。RDRAM则始终未成为市场的主流,只有部分芯片组支持,而这些芯片组也逐渐退出了市场,RDRAM前景并不被看好。 SDRAM SDRAM,即Synchronous DRAM(同步动态随机存储器),曾经是PC电脑上最为广泛应用的一种内存类型,即便在今天SDRAM仍旧还在市场占有一席之地。既然是“同步动态随机存储器”,那就代表着它的工作速度是与系统总线速度同步的。SDRAM内存又分为PC66、PC100、PC133等不同规格,而规格后面的数字就代表着该内存最大所能正常工作系统总线速度,比如PC100,那就说明此内存可以在系统总线为100MHz的电脑中同步工作。 与系统总线速度同步,也就是与系统时钟同步,这样就避免了不必要的等待周期,减少数据存储时间。同步还使存储控制器知道在哪一个时钟脉冲期由数据请求使用,因此数据可在脉冲上升期便开始传输。SDRAM采用3.3伏工作电压,168Pin的DIMM接口,带宽为64位。SDRAM不仅应用在内存上,在显存上也较为常见。 DDR 严格的说DDR应该叫DDR SDRAM,人们习惯称为DDR,部分初学者也常看到DDR SDRAM,就认为是SDRAM。DDR SDRAM是Double Data Rate SDRAM的缩写,是双倍速率同步动态随机存储器的意思。DDR内存是在SDRAM内存基础上发展而来的,仍然沿用SDRAM生产体系,因此对于内存厂商而言,只需对制造普通SDRAM的设备稍加改进,即可实现DDR内存的生产,可有效的降低成本。 SDRAM在一个时钟周期内只传输一次数据,它是在时钟的上升期进行数据传输;而DDR内存则是一个时钟周期内传输两次次数据,它能够在时钟的上升期和下降期各传输一次数据,因此称为双倍速率同步动态随机存储器。DDR内存可以在与SDRAM相同的总线频率下达到更高的数据传输率。 与SDRAM相比:DDR运用了更先进的同步电路,使指定地址、数据的输送和输出主要步骤既独立执行,又保持与CPU完全同步;DDR使用了DLL(Delay Locked Loop,延时锁定回路提供一个数据滤波信号)技术,当数据有效时,存储控制器可使用这个数据滤波信号来精确定位数据,每16次输出一次,并重新同步来自不同存储器模块的数据。DDL本质上不需要提高时钟频率就能加倍提高SDRAM的速度,它允许在时钟脉冲的上升沿和下降沿读出数据,因而其速度是标准SDRA的两倍。 从外形体积上DDR与SDRAM相比差别并不大,他们具有同样的尺寸和同样的针脚距离。但DDR为184针脚,比SDRAM多出了16个针脚,主要包含了新的控制、时钟、电源和接地等信号。DDR内存采用的是支持2.5V电压的SSTL2标准,而不是SDRAM使用的3.3V电压的LVTTL标准。 RDRAM RDRAM(Rambus DRAM)是美国的RAMBUS公司开发的一种内存。与DDR和SDRAM不同,它采用了串行的数据传输模式。在推出时,因为其彻底改变了内存的传输模 式,无法保证与原有的制造工艺相兼容,而且内存厂商要生产RDRAM还必须要加纳一定专利费用,再加上其本身制造成本,就导致了RDRAM从一问世就高昂的价格让普通用户无法接收。而同时期的DDR则能以较低的价格,不错的性能,逐渐成为主流,虽然RDRAM曾受到英特尔公司的大力支持,但始终没有成为主流。 RDRAM的数据存储位宽是16位,远低于DDR和SDRAM的64位。但在频率方面则远远高于二者,可以达到400MHz乃至更高。同样也是在一个时钟周期内传输两次次数据,能够在时钟的上升期和下降期各传输一次数据,内存带宽能达到1.6Gbyte/s。 普通的DRAM行缓冲器的信息在写回存储器后便不再保留,而RDRAM则具有继续保持这一信息的特性,于是在进行存储器访问时,如行缓冲器中已经有目标数据,则可利用,因而实现了高速访问。另外其可把数据集中起来以分组的形式传送,所以只要最初用24个时钟,以后便可每1时钟读出1个字节。一次访问所能读出的数据长度可以达到256字节。 接口类型 接口类型是根据内存条金手指上导电触片的数量来划分的,金手指上的导电触片也习惯称为针脚数(Pin)。因为不同的内存采用的接口类型各不相同,而每种接口类型所采用的针脚数各不相同。笔记本内存一般采用144Pin、200Pin接口;台式机内存则基本使用168Pin和184Pin接口。对应于内存所采用的不同的针脚数,内存插槽类型也各不相同。目前台式机系统主要有SIMM、DIMM和RIMM三种类型的内存插槽,而笔记本内存插槽则是在SIMM和DIMM插槽基础上发展而来,基本原理并没有变化,只是在针脚数上略有改变。 金手指 金手指(connecting finger)是内存条上与内存插槽之间的连接部件,所有的信号都是通过金手指进行传送的。金手指由众多金黄色的导电触片组成,因其表面镀金而且导电触片排列如手指状,所以称为“金手指”。金手指实际上是在覆铜板上通过特殊工艺再覆上一层金,因为金的抗氧化性极强,而且传导性也很强。不过因为金昂贵的价格,目前较多的内存都采用镀锡来代替,从上个世纪90年代开始锡材料就开始普及,目前主板、内存和显卡等设备 的“金手指”几乎都是采用的锡材料,只有部分高性能服务器/工作站的配件接触点才会继续采用镀金的做法,价格自然不菲。 内存金手指 内存处理单元的所有数据流、电子流正是通过金手指与内存插槽的接触与PC系统进行交换,是内存的输出输入端口,因此其制作工艺对于内存连接显得相当重要。 内存插槽 最初的计算机系统通过单独的芯片安装内存,那时内存芯片都采用DIP(Dual ln-line Package,双列直插式封装)封装,DIP芯片是通过安装在插在总线插槽里的内存卡与系统连接,此时还没有正式的内存插槽。DIP芯片有个最大的问题就在于安装起来很麻烦,而且随着时间的增加,由于系统温度的反复变化,它会逐渐从插槽里偏移出来。随着每日频繁的计算机启动和关闭,芯片不断被加热和冷却,慢慢地芯片会偏离出插槽。最终导致接触不好,产生内存错误。 早期还有另外一种方法是把内存芯片直接焊接在主板或扩展卡里,这样有效避免了DIP芯片偏离的问题,但无法再对内存容量进行扩展,而且如果一个芯片发生损坏,整个系统都将不能使用,只能重新焊接一个芯片或更换包含坏芯片的主板,此种方法付出的代价较大,也极为不方便。 对于内存存储器,大多数现代的系统都已采用单列直插内存模块(Single Inline Memory Module,SIMM)或双列直插内存模块(Dual Inline Memory Module,DIMM)来替代单个内存芯片。早期的EDO和SDRAM内存,使用过SIMM和DIMM两种插槽,但从SDRAM开始,就以DIMM插槽为主,而到了DDR和DDR2时代,SIMM插槽已经很少见了。 下边具体的说一下几种常见的内存插槽。 SIMM(Single Inline Memory Module,单内联内存模块) 内存条通过金手指与主板连接,内存条正反两面都带有金手指。金手指可以在两面提供不同的信号,也可以提供相同的信号。SIMM就是一种两侧金手指都提供相同信号的内存结构,它多用于早期的FPM和EDD DRAM,最初一次只能传输8bif数据,后来逐渐发展出16bit、32bit的SIMM模组,其中8bit和16bitSIMM使用30pin接口,32bit的则使用72pin接口。在内存发展进入SDRAM时代后,SIMM逐渐被DIMM技术取代。 DIMM(Dual Inline Memory,双内联内存模块) DIMM与SIMM相当类似,不同的只是DIMM的金手指两端不像SIMM那样是互通的,它们各自独立传输信号,因此可以满足更多数据信号的传送需要。同样采用DIMM,SDRAM 的接口与DDR内存的接口也略有不同,SDRAM DIMM为168Pin DIMM结构,金手指每面为84Pin,金手指上有两个卡口,用来避免插入插槽时,错误将内存反向插入而导致烧毁;DDR DIMM则采用184Pin DIMM结构,金手指每面有92Pin,金手指上只有一个卡口。卡口数量的不同,是二者最为明显的区别。 为了满足笔记本电脑对内存尺寸的要求,SO-DIMM(Small Outline DIMM Module)也开发了出来,它的尺寸比标准的DIMM要小很多,而且引脚数也不相同。同样SO-DIMM也根据SDRAM和DDR内存规格不同而不同,SDRAM的SO-DIMM只有144pin引脚,而DDR的SO-DIMM拥有200pin引脚。 RIMM RIMM是Rambus公司生产的RDRAM内存所采用的接口类型,RIMM内存与DIMM的外型尺寸差不多,金手指同样也是双面的。RIMM有也184 Pin的针脚,在金手指的中间 部分有两个靠的很近的卡口。RIMM非ECC版有16位数据宽度,ECC版则都是18位宽。由于RDRAM内存较高的价格,此类内存在DIY市场很少见到,RIMM接口也就难得一见了。 双通道内存 双通道内存技术其实是一种内存控制和管理技术,它依赖于芯片组的内存控制器发生作用,在理论上能够使两条同等规格内存所提供的带宽增长一倍。它并不是什么新技术,早就被应用于服务器和工作站系统中了,只是为了解决台式机日益窘迫的内存带宽瓶颈问题它才走到了台式机主板技术的前台。在几年前,英特尔公司曾经推出了支持双通道内存传输技术的i820芯片组,它与RDRAM内存构成了一对黄金搭档,所发挥出来的卓绝性能使其一时成为市场的最大亮点,但生产成本过高的缺陷却造成了叫好不叫座的情况,最后被市场所淘汰。由于英特尔已经放弃了对RDRAM的支持,所以目前主流芯片组的双通道内存技术均是指双通道DDR内存技术,主流双通道内存平台英特尔方面是英特尔 865/875系列,而AMD方面则是NVIDIA Nforce2系列。 双通道内存技术是解决CPU总线带宽与内存带宽的矛盾的低价、高性能的方案。现在CPU的FSB(前端总线频率)越来越高,英特尔 Pentium 4比AMD Athlon XP对内存带宽具有高得多的需求。英特尔 Pentium 4处理器与北桥芯片的数据传输采用QDR(Quad Data Rate,四次数据传输)技术,其FSB是外频的4倍。英特尔 Pentium 4的FSB分别是400/533/800MHz,总线带宽分别是3.2GB/sec,4.2GB/sec和6.4GB/sec,而DDR 266/DDR 333/DDR 400所能提供的内存带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec。在单通道内存模式下,DDR内存无法提供CPU所需要的数据带宽从而成为系统的性能瓶颈。而在双通道内存模式下,双通道DDR 266/DDR 333/DDR 400所能提供的内存带宽分别是4.2GB/sec,5.4GB/sec和6.4GB/sec,在这里可以看到,双通道DDR 400内存刚好可以满足800MHz FSB Pentium 4处理器的带宽需求。而对AMD Athlon XP平台而言,其处理器与北桥芯片的数据传输技术采用DDR(Double Data Rate,双倍数据传输)技术,FSB是外频的2倍,其对内存带宽的需求远远低于英特尔 Pentium 4平台,其FSB分别为266/333/400MHz,总线带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec,使用 单通道的DDR 266/DDR 333/DDR 400就能满足其带宽需求,所以在AMD K7平台上使用双通道DDR内存技术,可说是收效不多,性能提高并不如英特尔平台那样明显,对性能影响最明显的还是采用集成显示芯片的整合型主板。 NVIDIA推出的nForce芯片组是第一个把DDR内存接口扩展为128-bit的芯片组,随后英特尔在它的E7500服务器主板芯片组上也使用了这种双通道DDR内存技术,SiS和VIA也纷纷响应,积极研发这项可使DDR内存带宽成倍增长的技术。但是,由于种种原因,要实现这种双通道DDR(128 bit的并行内存接口)传输对于众多芯片组厂商来说绝非易事。DDR SDRAM内存和RDRAM内存完全不同,后者有着高延时的特性并且为串行传输方式,这些特性决定了设计一款支持双通道RDRAM内存芯片组的难度和成本都不算太高。但DDR SDRAM内存却有着自身局限性,它本身是低延时特性的,采用的是并行传输模式,还有最重要的一点:当DDR SDRAM工作频率高于400MHz时,其信号波形往往会出现失真问题,这些都为设计一款支持双通道DDR内存系统的芯片组带来不小的难度,芯片组的制造成本也会相应地提高,这些因素都制约着这项内存控制技术的发展。 普通的单通道内存系统具有一个64位的内存控制器,而双通道内存系统则有2个64位的内存控制器,在双通道模式下具有128bit的内存位宽,从而在理论上把内存带宽提高一倍。虽然双64位内存体系所提供的带宽等同于一个128位内存体系所提供的带宽,但是二者所达到效果却是不同的。双通道体系包含了两个独立的、具备互补性的智能内存控制器,理论上来说,两个内存控制器都能够在彼此间零延迟的情况下同时运作。比如说两个内存控制器,一个为A、另一个为B。当控制器B准备进行下一次存取内存的时候,控制器A就在读/写主内存,反之亦然。两个内存控制器的这种互补“天性”可以让等待时间缩减50%。双通道DDR的两个内存控制器在功能上是完全一样的,并且两个控制器的时序参数都是可以单独编程设定的。这样的灵活性可以让用户使用二条不同构造、容量、速度的DIMM内存条,此时双通道DDR简单地调整到最低的内存标准来实现128bit带宽,允许不同密度/等待时间特性的DIMM内存条可以可靠地共同运作。 支持双通道DDR内存技术的台式机芯片组,英特尔平台方面有英特尔的865P/865G/ 865GV/865PE/875P以及之后的915/925系列;VIA的PT880,ATI的Radeon 9100 IGP系列,SIS的SIIS 655,SIS 655FX和SIS 655TX;AMD平台方面则有VIA的KT880,NVIDIA的nForce2 Ultra 400,nForce2 IGP,nForce2 SPP及其以后的芯片。 数据带宽 一般指内存一次能处理的数据宽度,也就是一次能处理若干位的数据。30线内存条的数据带宽是8位,72线为32位,168线可达到64位。 CAS的延迟时间 内存的CAS延迟时间和存取时间之间有着密切的联系。首先解释一下什么是内存的CAS延迟时间。所谓CAS延迟时间,就是指内存纵向地址脉冲的反应时间。CAS延迟时间是在一定频率下衡量支持不同规范内存的重要标志之一。在Intel公司的PC100内存技术白皮书中指出:“符合PC100标准的内存芯片应该以CAS Latency(以下简称CL)= 2的情况稳定工作在100MHZ的频率下。”CL=2所表示的意义是此时内存读取数据的延迟时间是两个时钟周期当CL=3时。内存读取数据的延迟时间就应该是三个时钟周期,因此,这“2”与“3”之间的差别就不仅仅局限于“1”了,而是1个时钟周期。工作在相同频率下的同种内存,将CL设置为2会得到比3更优秀的性能(当然你的内存必须支持CL=2的模式)。为了使主板正确地为内存设定CAS延迟时间,内存生产厂商都将其内存在不同工作频率下所推荐的CAS延迟时间记录在了内存PCB板上的一块EEPROM上,这块芯片就是我们所说的SPD。当系统开机时,主板BIOS会自动检测SPD中的信息并最终确定是以CL=2还是CL=3来运行。 内存容量 内存容量是指该内存条的存储容量,是内存条的关键性参数。内存容量以MB作为单位,可以简写为M。内存的容量一般都是2的整次方倍,比如64MB、128MB、256MB等,一般而言,内存容量越大越有利于系统的运行。目前台式机中主流采用的内存容量为256MB或512MB,64MB、128MB的内存已较少采用。 系统对内存的识别是以Byte(字节)为单位,每个字节由8位二进制数组成,即8bit(比特,也称“位”)。按照计算机的二进制方式,1Byte=8bit;1KB=1024Byte;1MB=102 4KB;1GB=1024MB;1TB=1024GB。 系统中内存的数量等于插在主板内存插槽上所有内存条容量的总和,内存容量的上限一般由主板芯片组和内存插槽决定。不同主板芯片组可以支持的容量不同,比如Inlel的810和815系列芯片组最高支持512MB内存,多余的部分无法识别。目前多数芯片组可以支持到2GB以上的内存。此外主板内存插槽的数量也会对内存容量造成限制,比如使用128MB一条的内存,主板由两个内存插槽,最高可以使用256MB内存。因此在选择内存时要考虑主板内存插槽数量,并且可能需要考虑将来有升级的余地。 颗粒封装 颗粒封装其实就是内存芯片所采用的封装技术类型,封装就是将内存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。 随着光电、微电制造工艺技术的飞速发展,电子产品始终在朝着更小、更轻、更便宜的方向发展,因此芯片元件的封装形式也不断得到改进。芯片的封装技术多种多样,有DIP、POFP、TSOP、BGA、QFP、CSP等等,种类不下三十种,经历了从DIP、TSOP到BGA的发展历程。芯片的封装技术已经历了几代的变革,性能日益先进,芯片面积与封装面积之比越来越接近,适用频率越来越高,耐温性能越来越好,以及引脚数增多,引脚间距减小,重量减小,可靠性提高,使用更加方便。 DIP封装 上个世纪的70年代,芯片封装基本都采用DIP(Dual ln-line Package,双列直插式封装)封装,此封装形式在当时具有适合PCB(印刷电路板)穿孔安装,布线和操作较为方便等特点。DIP封装的结构形式多种多样,包括多层陶瓷双列直插式DIP,单层陶瓷双列直插式DIP,引线框架式DIP等。但DIP封装形式封装效率是很低的,其芯片面积和封装 面积之比为1:1.86,这样封装产品的面积较大,内存条PCB板的面积是固定的,封装面积越大在内存上安装芯片的数量就越少,内存条容量也就越小。同时较大的封装面积对内存频率、传输速率、电器性能的提升都有影响。理想状态下芯片面积和封装面积之比为1:1将是最好的,但这是无法实现的,除非不进行封装,但随着封装技术的发展,这个比值日益接近,现在已经有了1:1.14的内存封装技术。 TSOP封装 到了上个世纪80年代,内存第二代的封装技术TSOP出现,得到了业界广泛的认可,时至今日仍旧是内存封装的主流技术。TSOP是“Thin Small Outline Package”的缩写,意思是薄型小尺寸封装。TSOP内存是在芯片的周围做出引脚,采用SMT技术(表面安装技术)直接附着在PCB板的表面。TSOP封装外形尺寸时,寄生参数(电流大幅度变化时,引起输出电压扰动) 减小,适合高频应用,操作比较方便,可靠性也比较高。同时TSOP封装具有成品率高,价格便宜等优点,因此得到了极为广泛的应用。 TSOP封装方式中,内存芯片是通过芯片引脚焊接在PCB板上的,焊点和PCB板的接触面积较小,使得芯片向PCB办传热就相对困难。而且TSOP封装方式的内存在超过150MHz后,会产品较大的信号干扰和电磁干扰。 BGA封装 20世纪90年代随着技术的进步,芯片集成度不断提高,I/O引脚数急剧增加,功耗也随之增大,对集成电路封装的要求也更加严格。为了满足发展的需要,BGA封装开始被应用于生产。BGA是英文Ball Grid Array Package的缩写,即球栅阵列封装。 采用BGA技术封装的内存,可以使内存在体积不变的情况下内存容量提高两到三倍,BGA与TSOP相比,具有更小的体积,更好的散热性能和电性能。BGA封装技术使每平方英寸的存储量有了很大提升,采用BGA封装技术的内存产品在相同容量下,体积只有TSOP封装的三分之一;另外,与传统TSOP封装方式相比,BGA封装方式有更加快速和有 效的散热途径。 BGA封装的I/O端子以圆形或柱状焊点按阵列形式分布在封装下面,BGA技术的优点是I/O引脚数虽然增加了,但引脚间距并没有减小反而增加了,从而提高了组装成品率;虽然它的功耗增加,但BGA能用可控塌陷芯片法焊接,从而可以改善它的电热性能;厚度和重量都较以前的封装技术有所减少;寄生参数减小,信号传输延迟小,使用频率大大提高;组装可用共面焊接,可靠性高。 说到BGA封装就不能不提Kingmax公司的专利TinyBGA技术,TinyBGA英文全称为Tiny Ball Grid Array(小型球栅阵列封装),属于是BGA封装技术的一个分支,是Kingmax公司于1998年8月开发成功的,其芯片面积与封装面积之比不小于1:1.14,可以使内存在体积不变的情况下内存容量提高2,3倍,与TSOP封装产品相比,其具有更小的体积、更好的散热性能和电性能。 采用TinyBGA封装技术的内存产品在相同容量情况下体积只有TSOP封装的1/3。TSOP封装内存的引脚是由芯片四周引出的,而TinyBGA则是由芯片中心方向引出。这种方式有效地缩短了信号的传导距离,信号传输线的长度仅是传统的TSOP技术的1/4,因此信号的衰减也随之减少。这样不仅大幅提升了芯片的抗干扰、抗噪性能,而且提高了电性能。采用TinyBGA封装芯片可抗高达300MHz的外频,而采用传统TSOP封装技术最高只可抗150MHz的外频。 TinyBGA封装的内存其厚度也更薄(封装高度小于0.8mm),从金属基板到散热体的有效散热路径仅有0.36mm。因此,TinyBGA内存拥有更高的热传导效率,非常适用于长时间运行的系统,稳定性极佳。 CSP封装 CSP(Chip Scale Package),是芯片级封装的意思。CSP封装最新一代的内存芯片封装技术,其技术性能又有了新的提升。CSP封装可以让芯片面积与封装面积之比超过1:1.14,已经相当接近1:1的理想情况,绝对尺寸也仅有32平方毫米,约为普通的BGA的1 /3,仅仅相当于TSOP内存芯片面积的1/6。与BGA封装相比,同等空间下CSP封装可以将存储容量提高三倍。 CSP封装内存不但体积小,同时也更薄,其金属基板到散热体的最有效散热路径仅有0.2毫米,大大提高了内存芯片在长时间运行后的可靠性,线路阻抗显著减小,芯片速度也随之得到大幅度提高。 CSP封装内存芯片的中心引脚形式有效地缩短了信号的传导距离,其衰减随之减少,芯片的抗干扰、抗噪性能也能得到大幅提升,这也使得CSP的存取时间比BGA改善15%,20%。在CSP的封装方式中,内存颗粒是通过一个个锡球焊接在PCB板上,由于焊点和PCB板的接触面积较大,所以内存芯片在运行中所产生的热量可以很容易地传导到PCB板上并散发出去。CSP封装可以从背面散热,且热效率良好,CSP的热阻为35?/W,而TSOP热阻40?/W。 什么是Nvidia的PureVideo技术 Purevideo是Nvidia开发的一项技术。 在PC上带给用户高清家庭影院体验。如今,用户要求在PC上感受高清(HD)家庭影院体验。他们希望获得卓越的图形清晰度、流畅的视频播放和多种显示器连接选项。实现这一目标的最佳方法就是借助NVIDIA? PureVideo?技术。 在台式 PC、笔记本电脑或高清电视上观看 DVD 影片,不会有传统 PC 视频解决方案的不足和瑕疵。NVIDIA PureVideo技术融合了专用视频处理核心和软件,可以尽可能最低的CPU占用量和很低的功耗,极其平稳地播放H.264、VC-1、WMV和MPEG-2格式的高清视频。此外,高精度子像素处理支持将视频缩放为任何尺寸,使得即使较小的视频片段也能看起来像是高分辨率视频。 什么是显卡的UVD引擎 UVD(Unified Video Decoder)中文译成通用视讯解码器,是AVIVO HD中的其中一项技术。现时只有HD 2600、HD 2400和R700系列集成了这个解码器,高端的HD 2900XT反而没有集成。利用UVD引擎,显示卡就能完全硬体解码H.264和VC-1格式的高清影 片,分别为Blu-ray Disc和HD-DVD的编码。而对手NVIDIA纵使有类似的技术,但只能完全硬体解码H.264格式的影片。 VC-1格式方面,只能部分硬体解码。 原先ATI企图将UVD技术内置在Radeon X1 Series的显示核心中,成为新的显核(RV550),推进主流市场,并于2006年12月推出。但后来却无了下文。 透过UVD技术,在播放H.264或VC-1格式的高清影片时,处理器占用率只有5%。这使得低端电脑亦可流畅地播放1080p的高清影片。 RAMDAC速度 RAMDAC是Random Access Memory Digital/Analog Convertor的缩写,即随机存取内存数字,模拟转换器。RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。 计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物将被处理成 0和 1两个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每一个象素进行颜色、深度、亮度等各种处理。显卡生成的信号都是以数字来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备。 RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频带越宽,高分辨率时的画面质量越好.该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的分辨率,RAMDAC的速率至少是1024×768×85×1.344(折算系数)?106?90MHz。 目前主流的显卡RAMDAC都能达到350MHz和400MHz,已足以满足和超过目前大多数显示器所能提供的分辨率和刷新率。 什么是HDCP HDCP是High-bandwidth Digital Content Protection的缩写,中文就是HDCP数字内容保护,它是英特尔开发的为HDMI提供高带宽数字内容保护的解码技术。配备了HDCP解码技术的HDMI就不会受到信号加密的限制,可以接受全部格式的高清信号。 说的简单些,HDCP应该就是一个防止数字内容盗版的加密技术,如果软件和硬件其中之一不支持HDCP,那么我们就无法读取数字内容。下一代的蓝光和HD-DVD都将执行HDCP标准。也就是说,如果你希望在1980x1080的分辨率下观看电影,那么系统必须支持HDCP。反之,如果不支持的话,那么你只能获得1/4的分辨率。 显存时钟周期 显存时钟周期就是显存时钟脉冲的重复周期,它是作为衡量显存速度的重要指标。显存速度越快,单位时间交换的数据量也就越大,在同等情况下显卡性能将会得到明显提升。显存的时钟周期一般以ns(纳秒)为单位,工作频率以MHz为单位。显存时钟周期跟工作频率一一对应,它们之间的关系为:工作频率,1?时钟周期×1000。那么显存频率为166MHz,那么它的时钟周期为1?166×1000,6ns。 对于DDR SDRAM或者DDR2、DDR3显存来说,描述其工作频率时用的是等效输出频率。因为能在时钟周期的上升沿和下降沿都能传送数据,所以在工作频率和数据位宽度相同的情况下,显存带宽是SDRAM的两倍。换句话说,在显存时钟周期相同的情况下,DDR SDRAM显存的等效输出频率是SDRAM显存的两倍。例如,5ns的SDRAM显存的工作频率为200MHz,而5ns的DDR SDRAM或者DDR2、DDR3显存的等效工作频率就是400MHz。常见显存时钟周期有5ns、4ns、3.8ns、3.6ns、3.3ns、2.8ns、2.0ns、1.6ns、1.1ns,0.09甚至更低。 核心频率 显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频 率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。 显存类型 显存是显卡上的关键核心部件之一,它的优劣和容量大小会直接关系到显卡的最终性能表现。可以说显示芯片决定了显卡所能提供的功能和其基本性能,而显卡性能的发挥则很大程度上取决于显存。无论显示芯片的性能如何出众,最终其性能都要通过配套的显存来发挥。 显存,也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。我们在显示屏上看到的画面是由一个个的像素点构成的,而每个像素点都以4至32甚至64位的数据来控制它的亮度和色彩,这些数据必须通过显存来保存,再交由显示芯片和CPU调配,最后把运算结果转化为图形输出到显示器上。 目前市场上主要以DDR,DDRII,DDRIII为主。而新一代的芯片大部分都支持DDRIIII显存。 显存封装 显存封装是指显存颗粒所采用的封装技术类型,封装就是将显存芯片包裹起来,以避免芯片与外界接触,防止外界对芯片的损害。空气中的杂质和不良气体,乃至水蒸气都会腐蚀芯片上的精密电路,进而造成电学性能下降。不同的封装技术在制造工序和工艺方面差异很大,封装后对内存芯片自身性能的发挥也起到至关重要的作用。 显存封装形式主要有QFP、TSOP-II、MBGA等,其中TSOP-II、MBGA比较常见。早期的SDRAM和DDR显存很多使用TSOP-II,而现在随着显存速度的提高,越来越多的显存使用了MBGA封装,尤其是DDR2和DDR3显存,全都使用了MBGA封装。此外很多厂商也将DDR2和DDR3显存的封装称为FBGA,这种称呼更偏重于对针脚排列的命名,实际是相同的封装形式。此外虽然MBGA和TSOP-II相比,可以达到更高的显存频率,但是不能简单的认为MBGA封装的一定显存一定更好超频,因为是否容易超频,更多的取决 于厂商定的默认频率和显存实际能达到的频率之间的差距,包括显卡的设计制造,简单的说MBGA封装可以达到更高频率,但其默认频率也更高。 什么是HDMI HDMI(High Definition Multimedia Interface)是数字高清多媒体接口,其协议由Sony, Hitachi, Thomson (RCA), Philips, Matsushita (Panasonic), Toshiba 和 Silicon Image合作开发完成,基于Silicon image 的TMDS技术传输数据,能向下兼容DVI(Digital Visual Interface)。 随着电视的分辨率逐步提升,高清电视越来越普及,HDMI接口主要就是用于传输高质量、无损耗的数字音视频信号到高清电视, 最高带宽达到5Gbps。 美国FCC 规定2005 年7 月1 日起,所有数字电视周边产品都必须内建HDMI或DVI。 散热方式 由于显卡核心工作频率与显存工作频率的不断攀升,显卡芯片的发热量也在迅速提升。显示芯片的晶体管数量已经达到,甚至超过了CPU内的数量,如此高的集成度必然带来了发热量的增加,为了解决这些问题,显卡都会采用必要的散热方式。尤其对于超频爱好者和需要长时间工作的用户,优秀的散热方式是选择显卡的必选项目。 被动式散热 显卡的散热方式分为散热片和散热片配合风扇的形式,也叫作主动式散热和被动式散热方式。一般一些工作频率较低的显卡采用的都是被动式散热,这种散热方式就是在显示芯片上安装一个散热片即可,并不需要散热风扇。因为较低工作频率的显卡散热量并不是很大,没有必要使用散热风扇,这样在保障显卡稳定工作的同时,不仅可以降低成本,而且还能减少使用中的噪音。 主动式散热 主动式散热除了在显示芯片上安装散热片之外,还安装了散热风扇,工作频率较高的显卡都需要这种主动式散热。因为较高的工作频率就会带来更高的热量,仅安装一个散热片的话很难满足散热的需要,所以就需要风扇的帮助,而且对于那些超频使用的用户和需要长时间使用的用户来说就更重要了。 按照热功学原理我们可以把目前显卡的散热方式分为轴流式散热和风道导流式散热。其中轴流式散热是最常见的散热方式,这种散热方式类似于CPU散热器的散热方式,主要靠采用高导热系数的大面积金属材质散热器来实现散热。此外,厂商还会为散热器配置散热风扇,散热风扇会按电机轴向吸收空气并吹到散热片上,从而达到高效率散热的目的。不过,这种方式散发出的热量最终还是要排放到机箱内,对机箱自身的散热系统提出了较高的要求,当机箱散热效果不佳的时候,显卡散热效率也将会大打折扣。 导流式散热 导流式散热则是一种非常好的设计,很多高档游戏显卡都采用了这种散热方式,虽然该散热系统的外形与轴流式有些相似,但其散热效果却是轴流式散热系统不可比拟的。CHIP本次测试的显卡中,升技生产的显卡基本都采用了这种散热方式,散热片收集的热量可以通过显卡自身的专用导流风道直接排到机箱的外部,既保证了显卡的散热效果,又不为机箱增加额外的热负荷。 水冷散热 接口类型 接口类型是指显卡与主板连接所采用的接口种类。显卡的接口决定着显卡与系统之间数据传输的最大带宽,也就是瞬间所能传输的最大数据量。不同的接口决定着主板是否能够使 用此显卡,只有在主板上有相应接口的情况下,显卡才能使用,并且不同的接口能为显卡带来不同的性能。 目前各种3D游戏和软件对显卡的要求越来越高,主板和显卡之间需要交换的数据量也越来越大,过去的显卡接口早已不能满足这样大量的数据交换,因此通常主板上都带有专门插显卡的插槽。假如显卡接口的传输速度不能满足显卡的需求,显卡的性能就会受到巨大的限制,再好的显卡也无法发挥。显卡发展至今主要出现过ISA、PCI、AGP、PCI Express等几种接口,所能提供的数据带宽依次增加。其中2004年推出的PCI Express接口已经成为主流,以解决显卡与系统数据传输的瓶颈问题,而ISA、PCI接口的显卡已经基本被淘汰。目前市场上显卡一般是AGP和PCI-E这两种显卡接口。 AGP是Accelerated Graphics Port(图形加速端口)的缩写,是显示卡的专用扩展插槽,它是在PCI图形接口的基础上发展而来的。AGP规范是英特尔公司解决电脑处理(主要是显示)3D图形能力差的问题而出台的。AGP并不是一种总线,而是一种接口方式。随着3D游戏做得越来越复杂,使用了大量的3D特效和纹理,使原来传输速率为133MB/sec的PCI总线越来越不堪重负,籍此原因Intel才推出了拥有高带宽的AGP接口。这是一种与PCI总线迥然不同的图形接口,它完全独立于PCI总线之外,直接把显卡与主板控制芯片联在一起,使得3D图形数据省略了越过PCI总线的过程,从而很好地解决了低带宽PCI接口造成的系统瓶颈问题。可以说,AGP代替PCI成为新的图形端口是技术发展的必然。 PCI Express(以下简称PCI-E)采用了目前业内流行的点对点串行连接,比起PCI以及更早期的计算机总线的共享并行架构,每个设备都有自己的专用连接,不需要向整个总线请求带宽,而且可以把数据传输率提高到一个很高的频率,达到PCI所不能提供的高带宽。相对于传统PCI总线在单一时间周期内只能实现单向传输,PCI-E的双单工连接能提供更高的传输速率和质量,它们之间的差异跟半双工和全双工类似。 PCI-E的接口根据总线位宽不同而有所差异,包括X1、X4、X8以及X16,而X2模式将用于内部接口而非插槽模式。PCI-E规格从1条通道连接到32条通道连接,有非常强的伸缩性,以满足不同系统设备对数据传输带宽不同的需求。此外,较短的PCI-E卡可以插入较长的PCI-E插槽中使用,PCI-E接口还能够支持热拔插,这也是个不小的飞跃。PCI-E X1的250MB/秒传输速度已经可以满足主流声效芯片、网卡芯片和存储设备对数据传输带宽的需求,但是远远无法满足图形芯片对数据传输带宽的需求。 因此,用于取代AGP接口的PCI-E接口位宽为X16,能够提供5GB/s的带宽,即便有编码上的损耗但仍能够提供约为4GB/s左右的实际带宽,远远超过AGP 8X的2.1GB/s的带宽。 尽管PCI-E技术规格允许实现X1(250MB/秒),X2,X4,X8,X12,X16和X32通道规格,但是依目前形式来看,PCI-E X1和PCI-E X16已成为PCI-E主流规格,同时很多芯片组厂商在南桥芯片当中添加对PCI-E X1的支持,在北桥芯片当中添加对PCI-E X16的支持。除去提供极高数据传输带宽之外,PCI-E因为采用串行数据包方式传递数据,所以PCI-E接口每个针脚可以获得比传统I/O标准更多的带宽,这样就可以降低PCI-E设备生产成本和体积。另外,PCI-E也支持高阶电源管理,支持热插拔,支持数据同步传输,为优先传输数据进行带宽优化。 在兼容性方面,PCI-E在软件层面上兼容目前的PCI技术和设备,支持PCI设备和内存模组的初始化,也就是说过去的驱动程序、操作系统无需推倒重来,就可以支持PCI-E设备。目前PCI-E已经成为显卡的接口的主流,不过早期有些芯片组虽然提供了PCI-E作为显卡接口,但是其速度是4X的,而不是16X的,例如VIA PT880 Pro和VIA PT880 Ultra,当然这种情况极为罕见。 顶端 Posted: 2008-05-15 10:52 | [楼 主] 小中大引用推荐编辑只看 cgb1021 非主流生活 PCIe 2.0 PCI-E 2.0规格的主要新特性如下: 级别: 嘉宾 ? 带宽翻倍 :每通道数据传输率由原来的单向250MB/s双向500MB /s(PCI-E上下行可以同时传输数据)提高至单向500MB/s双向1GB /s,显卡所用的PCI-E X16 2.0接口带宽就是单向8GB/s双向16GB /s。 ? 功率翻两倍 :PCI-E 2.0接口可以直接输出最大225W的电力,是 现有PCI-E的75W三倍,可以更好的满足高端显卡需求。 ? 新增“输入输出虚拟化”技术 :可以让多台虚拟机共享网卡等PCI-E 扩展卡设备。 ? 支持外部PCI-E 2.0扩展卡设备 :扩展卡可以通过标准化的线缆 接入计算机,而且带宽速度几乎不会损耗,适合高端服务器通过外部 接口接入多块各种功能的扩展卡。对于显卡来说,实现外置多路 显卡 以及图形服务器将会更加容易。 ? 支持代号为“Geneseo”的长期规划。该技术与Intel、IBM等业界巨 头合作开发,可让图形处理单元、加密处理单元等协处理器更好地与 中央处理器机密相连。对于显卡来说。GPU和CPU整合将会拥 有更低的延迟、更高的通讯效率。 可以看到,PCI-E 2.0除了接口带宽翻倍之外,还给未来GPU的 发展提供了更加广阔的平台,不过目前对于普通用户来说,PCI-E 2. 0的意义还不是很大。 显存容量 显存容量是显卡上本地显存的容量数,这是选择显卡的关键参数之一。显存容量的大小决定着显存临时存储数据的能力,在一定程度上也会影响显卡的性能。显存容量也是随着显卡的发展而逐步增大的,并且有越来越增大的趋势。显存容量从早期的512KB、1MB、2MB等极小容量,发展到8MB、12MB、16MB、32MB、64MB,一直到目前主流的128MB、256MB和高档显卡的512MB,某些专业显卡甚至已经具有1GB的显存了。 值得注意的是,显存容量越大并不一定意味着显卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片,其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量。一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理,显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没有任何帮助的。 显存位宽 显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位和256位三种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此256位宽的显存更多应用于高端显卡,而主流显卡基本都采用128位显存。 大家知道显存带宽,显存频率X显存位宽/8,那么在显存频率相当的情况下,显存位宽将决定显存带宽的大小。比如说同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:128位,500MHz*128?8=8GB/s,而256位,500MHz*256?8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要性。 显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成,。显存位宽,显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。这是最为准确的方法,但施行起来较为麻烦。 显示芯片 显示芯片是显卡的核心芯片,它的性能好坏直接决定了显卡性能的好坏,它的主要任务就是处理系统输入的视频信息并将其进行构建、渲染等工作。显示主芯片的性能直接决定了显示卡性能的高低。不同的显示芯片,不论从内部结构还是其性能,都存在着差异,而其价格差别也很大。显示芯片在显卡中的地位,就相当于电脑中CPU的地位,是整个显卡的核心。因为显示芯片的复杂性,目前设计、制造显示芯片的厂家只有NVIDIA、ATI、SIS、VIA等公司。家用娱乐性显卡都采用单芯片设计的显示芯片,而在部分专业的工作站显卡上有采用多个显示芯片组合的方式。 最大分辨率 显卡的最大分辨率是指显卡在显示器上所能描绘的像素点的数量。大家知道显示器上显示的画面是一个个的像素点构成的,而这些像素点的所有数据都是由显卡提供的,最大分辨率就是表示显卡输出给显示器,并能在显示器上描绘像素点的数量。分辨率越大,所能显示的图像的像素点就越多,并且能显示更多的细节,当然也就越清晰。 最大分辨率在一定程度上跟显存有着直接关系,因为这些像素点的数据最初都要存储于显存内,因此显存容量会影响到最大分辨率。在早期显卡的显存容量只具有512KB、1MB、2MB等极小容量时,显存容量确实是最大分辨率的一个瓶颈;但目前主流显卡的显存容量,就连64MB也已经被淘汰,主流的娱乐级显卡已经是128MB、256MB或512MB,某些专 业显卡甚至已经具有1GB的显存,在这样的情况下,显存容量早已经不再是影响最大分辨率的因素,之所以需要这么大容量的显存,不过就是因为现在的大型3D游戏和专业渲染需要临时存储更多的数据罢了。 现在决定最大分辨率的其实是显卡的RAMDAC频率,目前所有主流显卡的RAMDAC都达到了400MHz,至少都能达到2048x1536的最大分辨率,而最新一代显卡的最大分辨率更是高达2560x1600了。 另外,显卡能输出的最大显示分辨率并不代表自己的电脑就能达到这么高的分辨率,还必须有足够强大的显示器配套才可以实现,也就是说,还需要显示器的最大分辨率与显卡的最大分辨率相匹配才能实现。除了显卡要支持之外,还需要显示器也要支持。而CRT显示器的最大分辨率主要是由其带宽所决定,而液晶显示器的最大分辨率则主要由其面板所决定。目前主流的显示器,17英寸的CRT其最大分辨率一般只有1600x1200,17英寸和19英寸的液晶则只有1280x1024,所以目前在普通电脑系统上最大分辨率的瓶颈不是显卡而是显示器。 什么是顶点着色单元 顶点着色单元是显示芯片内部用来处理顶点(Vertex)信息并完成着色工作的并行处理单元。顶点着色单元决定了显卡的三角形处理和生成能力,所以也是衡量显示芯片性能特别是3D性能的重要参数。 顶点(Vertex)是图形学中的最基本元素,在三维空间中,每个顶点都拥有自己的坐标和颜色值等参数,三个顶点可以构成成一个三角形,而显卡所最终生成的立体画面则是由数量繁多的三角形构成的,而三角形数量的多少就决定了画面质量的高低,画面越真实越精美,就越需要数量更多的三角形来构成。顶点着色单元就是处理着些信息然后再送给像素渲染单元完成最后的贴图工作,最后再输出到显示器就成为我们所看到的3D画面。而显卡的顶点处理能力不足,就会导致要么降低画质,要么降低速度。 在相同的显示核心下,顶点着色单元的数量就决定了显卡的性能高低,数量越多也就意味着性能越高,例如具有6个顶点着色单元的GeForce 6800GT就要比只具有5个顶点着色单元的GeForce 6800性能高:但在不同的显示核心架构下顶点着色单元的数量多则并不一定就意味着性能越高,这还要取决于顶点着色单元的效率以及显卡的其它参数,例如具有4个顶点着色单元的Radeon 9800Pro其性能还不如只具有3个顶点着色单元的GeForce 6600GT PCI Express接口 PCI Express是新一代的总线接口,而采用此类接口的显卡产品,已经在2004年正式面世。早在2001年的春季“英特尔开发者论坛”上,英特尔公司就提出了要用新一代的技术取代PCI总线和多种芯片的内部连接,并称之为第三代I/O总线技术。随后在2001年底,包括Intel、AMD、DELL、IBM在内的20多家业界主导公司开始起草新技术的规范,并在2002年完成,对其正式命名为PCI Express。 PCI Express采用了目前业内流行的点对点串行连接,比起PCI以及更早期的计算机总线的共享并行架构,每个设备都有自己的专用连接,不需要向整个总线请求带宽,而且可以把数据传输率提高到一个很高的频率,达到PCI所不能提供的高带宽。相对于传统PCI总线在单一时间周期内只能实现单向传输,PCI Express的双单工连接能提供更高的传输速率和质量,它们之间的差异跟半双工和全双工类似。 PCI Express的接口根据总线位宽不同而有所差异,包括X1、X4、X8以及X16(X2模式将用于内部接口而非插槽模式)。较短的PCI Express卡可以插入较长的PCI Express插槽中使用。PCI Express接口能够支持热拔插,这也是个不小的飞跃。PCI Express卡支持的三种电压分别为+3.3V、3.3Vaux以及+12V。用于取代AGP接口的PCI Express接口位宽为X16,将能够提供5GB/s的带宽,即便有编码上的损耗但仍能够提?嘉?GB/s左右的实际带宽,远远超过AGP 8X的2.1GB/s的带宽。 PCI Express规格从1条通道连接到32条通道连接,有非常强的伸缩性,以满足不同 系统设备对数据传输带宽不同的需求。例如,PCI Express X1规格支持双向数据传输,每向数据传输带宽250MB/s,PCI Express X1已经可以满足主流声效芯片、网卡芯片和存储设备对数据传输带宽的需求,但是远远无法满足图形芯片对数据传输带宽的需求。 因此,必须采用PCI Express X16,即16条点对点数据传输通道连接来取代传统的AGP总线。PCI Express X16也支持双向数据传输,每向数据传输带宽高达4GB/s,双向数据传输带宽有8GB/s之多,相比之下,目前广泛采用的AGP 8X数据传输只提供2.1GB/s的数据传输带宽。 尽管PCI Express技术规格允许实现X1(250MB/秒),X2,X4,X8,X12,X16和X32通道规格,但是依目前形式来看,PCI Express X1和PCI Express X16将成为PCI Express主流规格,同时芯片组厂商将在南桥芯片当中添加对PCI Express X1的支持,在北桥芯片当中添加对PCI Express X16的支持。除去提供极高数据传输带宽之外,PCI Express因为采用串行数据包方式传递数据,所以PCI Express接口每个针脚可以获得比传统I/O标准更多的带宽,这样就可以降低PCI Express设备生产成本和体积。另外,PCI Express也支持高阶电源管理,支持热插拔,支持数据同步传输,为优先传输数据进行带宽优化。 在兼容性方面,PCI Express在软件层面上兼容目前的PCI技术和设备,支持PCI设备和内存模组的初始化,也就是说目前的驱动程序、操作系统无需推倒重来,就可以支持PCI Express设备。 什么是SP单元 SP:Stream Processor。NVIDIA对其统一架构GPU内通用标量着色器的称谓。 Stream Processor是继Pixel Pipelines和Vertex Pipelines之后新一代的显卡渲染技术指标,Stream Processor既可以完成Vertex Shader运算,也可以完成Pixel Shader运算,而且可以根据需要组成任意VS/PS比例,从而给开发者更广阔的发挥空间。 简而言之,过去按照固定的比例组成的渲染管线/顶点单元渲染模式如今被Stream Processor组成的任意比例渲染管线/顶点单元渲染模式替代,Stream Processor是全新的全能渲染单元。 什么是OpenGL OpenGL是个专业的3D程序接口,是一个功能强大,调用方便的底层3D图形库。OpenGL的前身是SGI公司为其图形工作站开发的IRIS GL。IRIS GL是一个工业标准的3D图形软件接口,功能虽然强大但是移植性不好,于是SGI公司便在IRIS GL的基础上开发了OpenGL。OpenGL的英文全称是“Open Graphics Library”,顾名思义,OpenGL便是“开放的图形程序接口”。虽然DirectX在家用市场全面领先,但在专业高端绘图领域,OpenGL是不能被取代的主角。 OpenGL是个与.硬件无关的软件接口,可以在不同的平台如Windows 95、Windows NT、Unix、Linux、MacOS、OS,2之间进行移植。因此,支持OpenGL的软件具有很好的移植性,可以获得非常广泛的应用。由于OpenGL是3D图形的底层图形库,没有提供几何实体图元,不能直接用以描述场景。但是,通过一些转换程序,可以很方便地将AutoCAD、3DS等3D图形设计软件制作的DFX和3DS模型文件转换成OpenGL的顶点数组。 在OpenGL的基础上还有Open Inventor、Cosmo3D、Optimizer等多种高级图形库,适应不同应用。其中,Open Inventor应用最为广泛。该软件是基于OpenGL面向对象的工具包,提供创建交互式3D图形应用程序的对象和方法,提供了预定义的对象和用于交互的事件处理模块,创建和编辑3D场景的高级应用程序单元,有打印对象和用其它图形格式交换数据的能力。 OpenGL的发展一直处于一种较为迟缓的态势,每次版本的提高新增的技术很少,大多只是对其中部分做出修改和完善。1992年7月,SGI公司发布了OpenGL的1.0版本,随后又与微软公司共同开发了Windows NT版本的OpenGL,从而使一些原来必须在高档图形工作站上运行的大型3D图形处理软件也可以在微机上运用。1995年OpenGL的1.1版 本面市,该版本比1.0的性能有许多提高,并加入了一些新的功能。其中包括改进打印机支持,在增强元文件中包含OpenGL的调用,顶点数组的新特性,提高顶点位置、法线、颜色、色彩指数、纹理坐标、多边形边缘标识的传输速度,引入了新的纹理特性等等。OpenGL 1.5又新增了“OpenGL Shading Language”,该语言是“OpenGL 2.0”的底核,用于着色对象、顶点着色以及片断着色技术的扩展功能。 OpenGL 2.0标准的主要制订者并非原来的SGI,而是逐渐在ARB中占据主动地位的3Dlabs。2.0版本首先要做的是与旧版本之间的完整兼容性,同时在顶点与像素及内存管理上与DirectX共同合作以维持均势。OpenGL 2.0将由OpenGL 1.3的现有功能加上与之完全兼容的新功能所组成(如图一)。借此可以对在ARB停滞不前时代各家推出的各种纠缠不清的扩展指令集做一次彻底的精简。此外,硬件可编程能力的实现也提供了一个更好的方法以整合现有的扩展指令。 目前,随着DirectX的不断发展和完善,OpenGL的优势逐渐丧失,至今虽然已有3Dlabs提倡开发的2.0版本面世,在其中加入了很多类似于DirectX中可编程单元的设计,但厂商的用户的认知程度并不高,未来的OpenGL发展前景迷茫。 输出端口 VGA 显卡所处理的信息最终都要输出到显示器上,显卡的输出接口就是电脑与显示器之间的桥梁,它负责向显示器输出相应的图像信号。CRT显示器因为设计制造上的原因,只能接受模拟信号输入,这就需要显卡能输入模拟信号。VGA接口就是显卡上输出模拟信号的接口,VGA(Video Graphics Array)接口,也叫D-Sub接口。虽然液晶显示器可以直接接收数字信号,但很多低端产品为了与VGA接口显卡相匹配,因而采用VGA接口。VGA接口是一种D型接口,上面共有15针空,分成三排,每排五个。VGA接口是显卡上应用最为广泛的接口类型,绝大多数的显卡都带有此种接口。 目前大多数计算机与外部显示设备之间都是通过模拟VGA接口连接,计算机内部以数字方式生成的显示图像信息,被显卡中的数字/模拟转换器转变为R、G、,三原色信号和行、场同步信号,信号通过电缆传输到显示设备中。对于模拟显示设备,如模拟CRT显示器,信号被直接送到相应的处理电路,驱动控制显像管生成图像。而对于LCD、DLP等数字显示设备,显示设备中需配置相应的,/,(模拟/数字)转换器,将模拟信号转变为数字信号。在经过,/,和,/,2次转换后,不可避免地造成了一些图像细节的损失。VGA接口应用于CRT显示器无可厚非,但用于连接液晶之类的显示设备,则转换过程的图像损失会使显示效果略微下降。 DVI DVI全称为Digital Visual Interface,它是1999年由Silicon Image、Intel(英特尔)、Compaq(康柏)、IBM、HP(惠普)、NEC、Fujitsu(富士通)等公司共同组成DDWG(Digital Display Working Group,数字显示工作组)推出的接口标准。它是以Silicon Image公司的PanalLink接口技术为基础,基于TMDS(Transition Minimized Differential Signaling,最小化传输差分信号)电子协议作为基本电气连接。TMDS是一种微分信号机制,可以将象素数据编码,并通过串行连接传递。显卡产生的数字信号由发送器按照TMDS协议编码后通过TMDS通道发送给接收器,经过解码送给数字显示设备。一个DVI显示系统包括一个传送器和一个接收器。传送器是信号的来源,可以内建在显卡芯片中,也可以以附加芯片的形式出现在显卡PCB上;而接收器则是显示器上的一块电路,它可以接受数字信号,将其解码并传递到数字显示电路中,通过这两者,显卡发出的信号成为显示器上的图象。 目前的DVI接口分为两种,一个是DVI-D接口,只能接收数字信号,接口上只有3排8列共24个针脚,其中右上角的一个针脚为空。不兼容模拟信号。 另外一种则是DVI-I接口,可同时兼容模拟和数字信号。兼容模拟幸好并不意味着模拟信号的接口D-Sub接口可以连接在DVI-I接口上,而是必须通过一个转换接头才能使用,一般采用这种接口的显卡都会带有相关的转换接头。 显示设备采用DVI接口具有主要有以下两大优点: 一、速度快 DVI传输的是数字信号,数字图像信息不需经过任何转换,就会直接被传送到显示设备上,因此减少了数字?模拟?数字繁琐的转换过程,大大节省了时间,因此它的速度更快,有效消除拖影现象,而且使用DVI进行数据传输,信号没有衰减,色彩更纯净,更逼真。 二、画面清晰 计算机内部传输的是二进制的数字信号,使用VGA接口连接液晶显示器的话就需要先把信号通过显卡中的D/A(数字/模拟)转换器转变为R、G、B三原色信号和行、场同步信号,这些信号通过模拟信号线传输到液晶内部还需要相应的A/D(模拟/数字)转换器将模拟信号再一次转变成数字信号才能在液晶上显示出图像来。在上述的D/A、A/D转换和信号传输过程中不可避免会出现信号的损失和受到干扰,导致图像出现失真甚至显示错误,而DVI接口无需进行这些转换,避免了信号的损失,使图像的清晰度和细节表现力都得到了大大提高。 TV-OUT TV-Out是指显卡具备输出信号到电视的相关接口。目前普通家用的显示器尺寸不会超过19寸,显示画面相比于电视的尺寸来说小了很多,尤其在观看电影、打游戏时,更大的屏幕能给人带来更强烈的视觉享受。而更大尺寸的显示器价格是普通用户无法承受的,将显示画面输出到电视,这就成了一个不错的选择。输出到电视的接口目前主要应用的有三种。 一种是采用VGA接口,VGA接口是绝大多数显卡都具备的接口类型,但这需要电视上具备VGA接口才能实现,而带有此接口的电视相对还较少,同时多是一些价格较贵的产品,普及程度不高。此种方法一般不多采用,也不是人们习惯意义上说的视频输出。 另外一种则是复合视频接口。复合视频接口采用RCA接口,RCA接口是目前电视设备上应用最广泛的接口,几乎每台电视上都提供了此类接口,用于视频输入。虽然AV接口实现了音频和视频的分离传输,这就避免了因为音/视频混合干扰而导致的图像质量下降,但由于AV接口传输的仍然是一种亮度/色度(Y/C)混合的视频信号,仍然需要显示设备对其进行亮/色分离和色度解码才能成像,这种先混合再分离的过程必然会造成色彩信号的损失,色度信号和亮度信号也会有很大的机会相互干扰,从而影响最终输出的图像质量。 采用AV接口输出视频的显卡输出效果并不十分理想,但它却是电视上都具备的接口,因此此类接口受到一定用户的喜爱。目前此种输出接口的显卡产品较少,大多都提供输出效果更好的S端子接口。 黄色为RCA接口,黑色为S端子 最后一种则是目前应用最广泛、输出效果更好的S端子接口。S端子也就是Separate Video,而“Separate”的中文意思就是“分离”。它是在AV接口的基础上将色度信号C 和亮度信号Y进行分离,再分别以不同的通道进行传输,减少影像传输过程中的“分离”、“合成”的过程,减少转化过程中的损失,以得到最佳的显示效果。 通常显卡上采用的S端子有标准的4针接口(不带音效输出)和扩展的7针接口(带音效输出)。S端子相比于AV 接口,由于它不再进行Y/C混合传输,因此也就无需再进 行亮色分离和解码工作,而且使用各自独立的传输通道,在很大程度上避免了视频设备内信号串扰而产生的图像失真,极大地提高了图像的清晰度。 但S-Video 仍要将两路色差信号混合为一路色度信号C进行传输,然后再在显示设备内解码进行处理,这样多少仍会带来一定信号损失而产生失真(这种失真很小) ,而且由于混合导致色度信号的带宽也有一定的限制。S-Video虽不是最好的,但考虑到目前的市场状况和综合成本等其它因素,它还是应用最普遍的视频接口。 Video-in Video-in是指显卡上具备用于视频输入的接口,并能把外部视频源的信号输入到系统内。这样就可以把电视机、录像机、影碟机、摄像机等视频信号源输入到电脑中。带视频输入接口的显卡,通过在显卡上加装视频输入芯片,再整合入显卡自带的视频处理能力,提供更灵活的驱动和应用软件,这样就能给显卡集成更多的功能。显卡上支持视频输入的接口有RF射频端子、复合视频接口、S端子和VIVO接口等。 RF射频端子 RF射频端子 RF射频端子是最早在电视机上出现的,原意为无线电射频(Radio Frequency)。它是目前家庭有线电视采用的接口模式。RF 的成像原理是将视频信号(CVBS)和音频信号(Au dio)相混合编码后,输出然后在显示设备内部进行一系列分离/ 解码的过程输出成像。由于步骤繁琐且音视频混合编码会互相干扰,所以它的输出质量也是最差的。带此类接口的显卡只需把有线电视信号线连接上,就能将有线电视的信号输入到显卡内。 复合视频接口 复合视频接口采用RCA接口,RCA接口是目前电视设备上应用最广泛的接口,几乎每台电视上都提供了此类接口,用于视频输入。虽然AV接口实现了音频和视频的分离传输,这就避免了因为音/视频混合干扰而导致的图像质量下降,但由于AV接口传输的仍然是一种亮度/色度(Y/C)混合的视频信号,仍然需要显示设备对其进行亮/色分离和色度解码才能成像,这种先混合再分离的过程必然会造成色彩信号的损失,色度信号和亮度信号也会有很大的机会相互干扰,从而影响最终输出的图像质量。 S端子 S端子也就是Separate Video,而“Separate”的中文意思就是“分离”。它是在AV接口的基础上将色度信号C 和亮度信号Y进行分离,再分别以不同的通道进行传输,减少影像传输过程中的“分离”、“合成”的过程,减少转化过程中的损失,以得到最佳的显示效果。 通常显卡上采用的S端子有标准的4针接口(不带音效输出)和扩展的7针接口(带音效输出)。S端子相比于AV 接口,由于它不再进行Y/C混合传输,因此也就无需再进行亮色分离和解码工作,而且使用各自独立的传输通道,在很大程度上避免了视频设备内信号串扰而产生的图像失真,极大地提高了图像的清晰度。 但S-Video 仍要将两路色差信号混合为一路色度信号C进行传输,然后再在显示设备内解码进行处理,这样多少仍会带来一定信号损失而产生失真(这种失真很小) ,而且由于混合导致色度信号的带宽也有一定的限制。S-Video虽不是最好的,但考虑到目前的市场状况和综合成本等其它因素,它还是应用最普遍的视频接口。 VIVO(video in and video out)接口 VIVO接口 VIVO连接线 VIVO接口其实就是一种扩展的S端子接口,它在扩展型S端子接口的基础上又进行了扩展,针数要多于扩展型S端子7针。VIVO接口必须要用显卡附带的VIVO连接线,才能能够实现S端子输入与S端子输出功能。 什么是CPU 什么是CPU CPU是电脑系统的心脏,电脑特别是微型电脑的快速发展过程,实质上就是CPU从低 级向高级、从简单向复杂发展的过程。 一、CPU的概念 CPU(Central Processing Unit)又叫中央处理器,其主要功能是进行运算和逻辑运算,内部结构大概可以分为控制单元、算术逻辑单元和存储单元等几个部分。按照其处理信息的字长可以分为:八位微处理器、十六位微处理器、三十二位微处理器以及六十四位微处理器等等。 二、CPU主要的性能指标 主频:即CPU内部核心工作的时钟频率,单位一般是兆赫兹(MHz)。这是我们平时无论是使用还是购买计算机都最关心的一个参数,我们通常所说的133、166、450等就是指它。对于同种类的CPU,主频越高,CPU的速度就越快,整机的性能就越高。 外频和倍频数:外频即CPU的外部时钟频率。外频是由电脑主板提供的,CPU的主频与外频的关系是:CPU主频,外频×倍频数。 内部缓存:采用速度极快的SRAM制作,用于暂时存储CPU运算时的最近的部分指令和数据,存取速度与CPU主频相同,内部缓存的容量一般以KB为单位。当它全速工作时,其容量越大,使用频率最高的数据和结果就越容易尽快进入CPU进行运算,CPU工作时与存取速度较慢的外部缓存和内存间交换数据的次数越少,相对电脑的运算速度可以提高。 地址总线宽度:地址总线宽度决定了CPU可以访问的物理地址空间,简单地说就是CPU到底能够使用多大容量的内存。 多媒体扩展指令集(MMX)技术:MMX是Intel公司为增强Pentium CPU 在音像、图形和通信应用方面而采取的新技术。这一技术为CPU增加了全新的57条MMX指令, 这些加了MMX指令的 CPU比普通CPU在运行含有MMX指令的程序时,处理多媒体的能力上提高了60,左右。即使不使用MMX指令的程序,也能获得15,左右的性能提升。 微处理器在多方面改变了我们的生活,现在认为理所当然的事,在以前却是难以想象的。六十年代计算机大得可充满整个房间,只有很少的人能使用它们。六十年代中期集成电路的发明使电路的小型化得以在一块单一的硅片上实现,为微处理器的发展奠定了基础。在可预见的未来,CPU的处理能力将继续保持高速增长,小型化、集成化永远是发展趋势,同时会形成不同层次的产品,也包括专用处理器。 其他内部插口 AMR AMR(Audio Modem Riser,声音和调制解调器插卡)规范,它是1998年英特尔公司发起并号召其它相关厂商共同制定的一套开放工业标准,旨在将数字信号与模拟信号的转换电路单独做在一块电路卡上。因为在此之前,当主板上的模拟信号和数字信号同处在一起时,会产生互相干扰的现象。而AMR规范就是将声卡和调制解调器功能集成在主板上,同时又把数字信号和模拟信号隔离开来,避免相互干扰。这样做既降低了成本,又解决了声卡与Modem子系统在功能上的一些限制。由于控制电路和数字电路能比较容易集成在芯片组中或主板上,而接口电路和模拟电路由于某些原因(如电磁干扰、电气接口不同)难以集成到主板上。因此,英特尔公司就专门开发出了AMR插槽,目的是将模拟电路和I/O接口电路转移到单独的AMR插卡中,其它部件则集成在主板上的芯片组中。AMR插槽的位置一般在主板上PCI插槽(白色)的附近,比较短(大约只有5厘米),外观呈棕色。可插接AMR声卡或AMR Modem卡,不过由于现在绝大多数整合型主板上都集成了AC,97音效芯片,所以AMR插槽主要是与AMR Modem配合使用。但由于AMR Modem卡比一般的内置软Modem卡更占CPU资源,使用效果并不理想,而且价格上也不比内置Modem卡占多大优势,故此AMR插槽很快被CNR所取代。 AMR插槽 CNR 为顺应宽带网络技术发展的需求,弥补AMR规范设计上的不足,英特尔适时推出了CNR(CommunicATIon Network Riser,通讯网络插卡)标准。与AMR规范相比,新的CNR标准应用范围更加广泛,它不仅可以连接专用的CNR Modem,还能使用专用的家庭电话网络(Home PNA),并符合PC 2000标准的即插即用功能。最重要的是,它增加了对10/100MB局域网功能的支持,以及提供对AC’97兼容的AC-Link、SMBus接口和USB(1.X或2.0)接口的支持。另外,CNR标准支持ATX、Micro ATX和Flex ATX规格的主板,但不支持NLX形式的主板(AMR支持)。从外观上看,CNR插槽比AMR插槽比较相似(也呈棕色),但前者要略长一点,而且两者的针脚数也不相同,所以AMR插槽与CNR插槽无法兼容。CNR支持的插卡类型有Audio CNR、Modem CNR、USB Hub CNR、Home PNA CNR、LAN CNR等。但市场对CNR的支持度不够,相应的产品很少,所以大多数主板上的CNR插槽也成了无用的摆设。 CNR插槽 ACR ACR是Advanced CommuniATIon Riser(高级通讯插卡)的缩写,它是VIA(威盛)公司为了与英特尔的AMR相抗衡而联合AMD、3Com、Lucent(朗讯)、Motorola(摩托罗拉)、NVIDIA、Texas Instruments等世界著名厂商于2001年6月推出的一项开放性行业技术标准,其目的也上为了拓展AMR在网络通讯方面的功能。ACR不但能够与AMR规范完全兼容,而且定义了一个非常完善的网络与通讯的标准接口。ACR插卡可以提供诸如Modem、LAN(局域网)、Home PNA、宽带网(ADSL、Cable Modem)、无线网络和多声道音效处理等功能。ACR插槽大多都设计放在原来ISA插槽的地方。ACR插槽采用120针脚设计,兼容普通的PCI插槽,但方向正好与之相反,这样可以保证两种类型的插卡不会混淆。管ACR和CNR标准都包含了AMR标准的全部内容,但这两者并不兼容,甚至可以说是互相排斥(这也是市场竞争的恶果)。两者最明显的差别是,CNR放弃了原有的基础架构,即放弃了对AMR标准的兼容,而ACR标准在增加了众多新功能的同时保留了与AMR的兼容性。但与CNR一样,市场对ACR的支持度不够,相应的产品很少,所以大多数主板上的ACR插槽也成了无用的摆设。 上图中最左侧的插槽为ACR插槽,注意其与右侧5个PCI插槽的区别。 IEEE 1394 IEEE 1394的前身即Firewire(火线),是1986年由苹果电脑公司针对高速数据传输所开发的一种传输介面,并于1995年获得美国电机电子工程师协会认可,成为正式标准。现在大家看到的IEEE1394、Firewire和i.LINK其实指的都是这个标准,通常,在PC个人计算机领域将它称为IEEE1394,在电子消费品领域,则更多的将它称为i.LINK,而对于苹果机则仍以最早的Firewire称之。IEEE 1394也是一种高效的串行接口标准,功能强大而且性能稳定,而且支持热拔插和即插即用。IEEE 1394可以在一个端口上连接多达63个设备,设备间采用树形或菊花链拓扑结构。 IEEE 1394标准定义了两种总线模式,即:Backplane模式和Cable模式。其中Backplane模式支持12.5、25、50Mbps的传输速率;Cable模式支持100、200、400Mbps的传输速率。目前最新的IEEE 1394b标准能达到800Mbps的传输速率。IEEE1394是横跨PC及家电产品平台的一种通用界面,适用于大多数需要高速数据传输的产品,如高速外置式硬盘、CD-ROM、DVD-ROM、扫描仪、打印机、数码相机、摄影机等。IEEE 1394分 为有供电功能的6针A型接口和无供电功能的4针B型接口,A型接口可以通过转接线兼容B型,但是B型转换成A型后则没有供电的能力。6针的A型接口在Apple的电脑和周边设备上使用很广,而在消费类电子产品以及PC上多半都是采用的简化过的4针B型接口,需要配备单独的电源适配器。IEEE1394接口可以直接当做网卡联机,也可以通过Hub扩展出更多的接口。没有IEEE1394接口的主板也可以通过插接IEEE 1394扩展卡的方式获得此功能。 RAID RAID是英文Redundant Array of Inexpensive Disks的缩写,中文简称为廉价磁盘冗余阵列。RAID就是一种由多块硬盘构成的冗余阵列。虽然RAID包含多块硬盘,但是在操作系统下是作为一个独立的大型存储设备出现。利用RAID技术于存储系统的好处主要有以下三种: 1、通过把多个磁盘组织在一起作为一个逻辑卷提供磁盘跨越功能 2、通过把数据分成多个数据块(Block)并行写入/读出多个磁盘以提高访问磁盘的速度 3、通过镜像或校验操作提供容错能力 最初开发RAID的主要目的是节省成本,当时几块小容量硬盘的价格总和要低于大容量的硬盘。目前来看RAID在节省成本方面的作用并不明显,但是RAID可以充分发挥出多块硬盘的优势,实现远远超出任何一块单独硬盘的速度和吞吐量。除了性能上的提高之外,RAID还可以提供良好的容错能力,在任何一块硬盘出现问题的情况下都可以继续工作,不会受到损坏硬盘的影响。 RAID技术分为几种不同的等级,分别可以提供不同的速度,安全性和性价比。根据实际情况选择适当的RAID级别可以满足用户对存储系统可用性、性能和容量的要求。常用的RAID级别有以下几种:NRAID,JBOD,RAID0,RAID1,RAID0+1,RAID3,RAID5等。目前经常使用的是RAID5和RAID(0+1)。 NRAID NRAID即Non-RAID,所有磁盘的容量组合成一个逻辑盘,没有数据块分条(no block stripping)。NRAID不提供数据冗余。要求至少一个磁盘。 JBOD JBOD代表Just a Bunch of Drives,磁盘控制器把每个物理磁盘看作独立的磁盘,因此每个磁盘都是独立的逻辑盘。JBOD也不提供数据冗余。要求至少一个磁盘。 RAID 0 RAID 0即Data Stripping(数据分条技术)。整个逻辑盘的数据是被分条(stripped)分布在多个物理磁盘上,可以并行读/写,提供最快的速度,但没有冗余能力。要求至少两个磁盘。我们通过RAID 0可以获得更大的单个逻辑盘的容量,且通过对多个磁盘的同时读取获得更高的存取速度。RAID 0首先考虑的是磁盘的速度和容量,忽略了安全,只要其中一个磁盘出了问题,那么整个阵列的数据都会不保了。 RAID 1 RAID 1,又称镜像方式,也就是数据的冗余。在整个镜像过程中,只有一半的磁盘容量是有效的(另一半磁盘容量用来存放同样的数据)。同RAID 0相比,RAID 1首先考虑的是安全性,容量减半、速度不变。 RAID 0+1 为了达到既高速又安全,出现了RAID 10(或者叫RAID 0+1),可以把RAID 10简单地理解成由多个磁盘组成的RAID 0阵列再进行镜像。 RAID 3和RAID 5 RAID 3和RAID 5都是校验方式。RAID 3的工作方式是用一块磁盘存放校验数据。由于任何数据的改变都要修改相应的数据校验信息,存放数据的磁盘有好几个且并行工作,而存放校验数据的磁盘只有一个,这就带来了校验数据存放时的瓶颈。RAID 5的工作方式 是将各个磁盘生成的数据校验切成块,分别存放到组成阵列的各个磁盘中去,这样就缓解了校验数据存放时所产生的瓶颈问题,但是分割数据及控制存放都要付出速度上的代价。 IDE RAID和SATA RAID。其中,S 按照硬盘接口的不同,RAID分为SCSI RAID, CSI RAID主要用于要求高性能和高可靠性的服务器/工作站,而台式机中主要采用IDE RAID和SATA RAID。 以前RAID功能主要依靠在主板上插接RAID控制卡实现,而现在越来越多的主板都添加了板载RAID芯片直接实现RAID功能,目前主流的RAID芯片有HighPoint的HTP372和Promise的PDC20265R,而英特尔更进一步,直接在主板芯片组中支持RAID,其ICH5R南桥芯片中就内置了SATA RAID功能,这也代表着未来板载RAID的发展方向---芯片组集成RAID。 什么是音频芯片 板载音效是指主板所整合的声卡芯片型号或类型。 声卡是一台多媒体电脑的主要设备之一,现在的声卡一般有板载声卡和独立声卡之分。在早期的电脑上并没有板载声卡,电脑要发声必须通过独立声卡来实现。随着主板整合程度的提高以及CPU性能的日益强大,同时主板厂商降低用户采购成本的考虑,板载声卡出现在越来越多的主板中,目前板载声卡几乎成为主板的标准配置了,没有板载声卡的主板反而比较少了。 板载ALC650声卡芯片 板载声卡一般有软声卡和硬声卡之分。这里的软硬之分,指的是板载声卡是否具有声卡主处理芯片之分,一般软声卡没有主处理芯片,只有一个解码芯片,通过CPU的运算来代替声卡主处理芯片的作用。而板载硬声卡带有主处理芯片,很多音效处理工作就不再需要CPU参与了。 AC'97 AC'97的全称是Audio CODEC'97,这是一个由英特尔、雅玛哈等多家厂商联合研发并制定的一个音频电路系统标准。它并不是一个实实在在的声卡种类,只是一个标准。目前最新的版本已经达到了2.3。现在市场上能看到的声卡大部分的CODEC都是符合AC'97标准。厂商也习惯用符合CODEC的标准来衡量声卡,因此很多的主板产品,不管采用的何种声卡芯片或声卡类型,都称为AC'97声卡。 板载声卡优缺点 因为板载软声卡没有声卡主处理芯片,在处理音频数据的时候会占用部分CPU资源,在CPU主频不太高的情况下会略微影响到系统性能。目前CPU主频早已用GHz来进行计算,而音频数据处理量却增加的并不多,相对于以前的CPU而言,CPU资源占用旅已经大大降低,对系统性能的影响也微乎其微了,几乎可以忽略。 “音质”问题也是板载软声卡的一大弊病,比较突出的就是信噪比较低,其实这个问题并不是因为板载软声卡对音频处理有缺陷造成的,主要是因为主板制造厂商设计板载声卡时的布线不合理,以及用料做工等方面,过于节约成本造成的。 而对于板载的硬声卡,则基本不存在以上两个问题,其性能基本能接近并达到一般独立声卡,完全可以满足普通家庭用户的需要。 集成声卡最大的优势就是性价比,而且随着声卡驱动程序的不断完善,主板厂商的设计能力的提高,以及板载声卡芯片性能的提高和价格的下降,板载声卡越来越得到用户的认可。 板载声卡的劣势却正是独立声卡的优势,而独立声卡的劣势又正是板载声卡的优势。独立声卡从几十元到几千元有着各种不同的档次,从性能上讲集成声卡完全不输给中低端的独立声卡,在性价比上集成声卡又占尽优势。在中低端市场,在追求性价的用户中,集成声卡是不错的选择。 硬盘接口类型 硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中,硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上,硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中,也部分应用于服务器,SCSI接口的硬盘则主要应用于服务器市场,而光纤通道只在高端服务器上,价格昂贵。SATA是种新生的硬盘接口类型,还正出于市场普及阶段,在家用市场中有着广泛的前景。在IDE和SCSI的大类别下,又可以分出多种具体的接口类型,又各自拥有不同的技术规范,具备不同的传输速度,比如ATA100和SATA;Ultra160 SCSI和Ultra320 SCSI都代表着一种具体的硬盘接口,各自的速度差异也较大。 IDE IDE的英文全称为“Integrated Drive Electronics”,即“电子集成驱动器”,它的本意是指把“硬盘控制器”与“盘体”集成在一起的硬盘驱动器。把盘体与控制器集成在一起的做法减少了硬盘接口的电缆数目与长度,数据传输的可靠性得到了增强,硬盘制造起来变得更容易,因为硬盘生产厂商不需要再担心自己的硬盘是否与其它厂商生产的控制器兼容。对用户而言,硬盘安装起来也更为方便。IDE这一接口技术从诞生至今就一直在不断发展,性能也不断的提高,其拥有的价格低廉、兼容性强的特点,为其造就了其它类型硬盘无法替代的地位。 主板IDE接口 IDE代表着硬盘的一种类型,但在实际的应用中,人们也习惯用IDE来称呼最早出现IDE类型硬盘ATA-1,这种类型的接口随着接口技术的发展已经被淘汰了,而其后发展分支出更多类型的硬盘接口,比如ATA、Ultra ATA、DMA、Ultra DMA等接口都属于IDE硬盘。 SCSI SCSI的英文全称为“Small Computer System Interface”(小型计算机系统接口),是同IDE(ATA)完全不同的接口,IDE接口是普通PC的标准接口,而SCSI并不是专门为硬盘设计的接口,是一种广泛应用于小型机上的高速数据传输技术。SCSI接口具有应用范围广、多任务、带宽大、CPU占用率低,以及热插拔等优点,但较高的价格使得它很难如IDE硬盘般普及,因此SCSI硬盘主要应用于中、高端服务器和高档工作站中。 光纤通道 光纤通道的英文拼写是Fibre Channel,和SCIS接口一样光纤通道最初也不是为硬盘设计开发的接口技术,是专门为网络系统设计的,但随着存储系统对速度的需求,才逐渐应用到硬盘系统中。光纤通道硬盘是为提高多硬盘存储系统的速度和灵活性才开发的,它的出现大大提高了多硬盘系统的通信速度。光纤通道的主要特性有:热插拔性、高速带宽、远程连接、连接设备数量大等。 光纤通道是为在像服务器这样的多硬盘系统环境而设计,能满足高端工作站、服务器、海量存储子网络、外设间通过集线器、交换机和点对点连接进行双向、串行数据通讯等系统对高数据传输率的要求。 SATA 使用SATA(Serial ATA)口的硬盘又叫串口硬盘,是未来PC机硬盘的趋势。2001年,由Intel、APT、Dell、IBM、希捷、迈拓这几大厂商组成的Serial ATA委员会正式确立了Serial ATA 1.0规范,2002年,虽然串行ATA的相关设备还未正式上市,但Serial ATA委员会已抢先确立了Serial ATA 2.0规范。Serial ATA采用串行连接方式,串行ATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。 支持Serial-ATA技术的标志 主板上的Serial-ATA接口 串口硬盘是一种完全不同于并行ATA的新型硬盘接口类型,由于采用串行方式传输数据而知名。相对于并行ATA来说,就具有非常多的优势。首先,Serial ATA以连续串行的方式传送数据,一次只会传送1位数据。这样能减少SATA接口的针脚数目,使连接电缆数目变少,效率也会更高。实际上,Serial ATA 仅用四支针脚就能完成所有的工作,分别用于连接电缆、连接地线、发送数据和接收数据,同时这样的架构还能降低系统能耗和减小系统复杂性。其次,Serial ATA的起点更高、发展潜力更大,Serial ATA 1.0定义的数据传输率可达150MB/s,这比目前最新的并行ATA(即ATA/133)所能达到133MB/s的最高数据传输率还高,而在Serial ATA 2.0的数据传输率将达到300MB/s,最终SATA将实现600MB/s的最高数据传输率。 并/串口 串行接口 串行接口,简称串口,也就是COM接口,是采用串行通信协议的扩展接口。串口的出现是在1980年前后,数据传输率是115kbps,230kbps,串口一般用来连接鼠标和外置Modem以及老式摄像头和写字板等设备,目前部分新主板已开始取消该接口。 并行接口 并行接口,简称并口,也就是LPT接口,是采用并行通信协议的扩展接口。并口的数据传输率比串口快8倍,标准并口的数据传输率为1Mbps,一般用来连接打印机、扫描仪 等。所以并口又被称为打印口。 另外,串口和并口都能通过直接电缆连接的方式实现双机互连,在此方式下数据只能低速传输。多年来PC的串口与并口的功能和结构并没有什么变化。在使用串并口时,原则上每一个外设必须插在一个接口上,如果所有的接口均被用上了就只能通过添加插卡来追加接口。串、并口不仅速度有限,而且在使用上很不方便,例如不支持热插拔等。随着USB接口的普及,目前都已经很少使用了,而且随着BTX规范的推广,是必然会被淘汰的。 USB 扩展接口是主板上用于连接各种外部设备的接口。通过这些扩展接口,可以把打印机,外置Modem,扫描仪,闪存盘,MP3播放机,DC,DV,移动硬盘,手机,写字板等外部设备连接到电脑上。而且,通过扩展接口还能实现电脑间的互连。 目前,常见的扩展接口有串行接口(Serial Port),并行接口(Parallel Port),通用串行总线接口(USB),IEEE 1394接口等。 USB USB是英文Universal Serial Bus的缩写,中文含义是“通用串行总线”。它不是一种新的总线标准,而是应用在PC领域的接口技术。USB是在1994年底由英特尔、康柏、IBM、Microsoft等多家公司联合提出的。不过直到近期,它才得到广泛地应用。从1994年11月11日发表了USB V0.7版本以后,USB版本经历了多年的发展,到现在已经发展为2.0版本,成为目前电脑中的标准扩展接口。目前主板中主要是采用USB1.1和USB2.0,各USB版本间能很好的兼容。USB用一个4针插头作为标准插头,采用菊花链形式可以把所有的外设连接起来,最多可以连接127个外部设备,并且不会损失带宽。USB需要主机硬件、操作系统和外设三个方面的支持才能工作。目前的主板一般都采用支持USB功能的控制芯片组,主板上也安装有USB接口插座,而且除了背板的插座之外,主板上还预留有USB插针,可以通过连线接到机箱前面作为前置USB接口以方便使用(注意,在接线时要仔细阅读主板说明书并按图连接,千万不可接错而使设备损坏)。而且USB接口还可以通过专 门的USB连机线实现双机互连,并可以通过Hub扩展出更多的接口。USB具有传输速度快(USB1.1是12Mbps,USB2.0是480Mbps),使用方便,支持热插拔,连接灵活,独立供电等优点,可以连接鼠标、键盘、打印机、扫描仪、摄像头、闪存盘、MP3机、手机、数码相机、移动硬盘、外置光软驱、USB网卡、ADSL Modem、Cable Modem等,几乎所有的外部设备。 什么是PCI插槽 PCI插槽是基于PCI局部总线(Pedpherd Component Interconnect,周边元件扩展接口)的扩展插槽,其颜色一般为乳白色,位于主板上AGP插槽的下方,ISA插槽的上方。其位宽为32位或64位,工作频率为33MHz,最大数据传输率为133MB/sec(32位)和266MB/sec(64位)。可插接显卡、声卡、网卡、内置Modem、内置ADSL Modem、USB2.0卡、IEEE1394卡、IDE接口卡、RAID卡、电视卡、视频采集卡以及其它种类繁多的扩展卡。PCI插槽是主板的主要扩展插槽,通过插接不同的扩展卡可以获得目前电脑能实现的几乎所有功能,是名副其实的“万用”扩展插槽。 CMOS与BIOS 是互补金属氧化物半导化的缩写。本意是指制造大规模集成电路芯片用的一种技术或用这种技术制造出来的芯片。其实,在这里是指主板上一块可读写的存储芯片。它存储了微机系统的时钟信息和硬件配置信息等,共计128个字节。系统加电引导时,要读取CMOS信息,用来初始化机器各个部件的状态。它靠系统电源或后备电池来供电,关闭电源信息不会丢失。 是基本输入输出系统的缩写。指集成在主板上的一个ROM芯片,其中保存了微机系统最重要的基本输入输出程序、系统开机自检程序等。它负责开机时,对系统各项石硬件进行初始化设置和测试,以保证系统能正常工作。 由于CMOS与BIOS都跟微机系统设置密切相关,所以才有CMOS设置与BIOS设置的说法,CMOS是系统存放参数的地方,而BIOS中的系统设置程序是完成参数设置的手 段。因此,准确的说法是通过BIOS设置程序对CMOS参数进行设置。而我们平常所说的CMOS设置与BIOS设置是其简化说法,也就在一定程度上造成两个概念的混淆。 双通道内存 双通道内存技术其实是一种内存控制和管理技术,它依赖于芯片组的内存控制器发生作用,在理论上能够使两条同等规格内存所提供的带宽增长一倍。它并不是什么新技术,早就被应用于服务器和工作站系统中了,只是为了解决台式机日益窘迫的内存带宽瓶颈问题它才走到了台式机主板技术的前台。在几年前,英特尔公司曾经推出了支持双通道内存传输技术的i820芯片组,它与RDRAM内存构成了一对黄金搭档,所发挥出来的卓绝性能使其一时成为市场的最大亮点,但生产成本过高的缺陷却造成了叫好不叫座的情况,最后被市场所淘汰。由于英特尔已经放弃了对RDRAM的支持,所以目前主流芯片组的双通道内存技术均是指双通道DDR内存技术,主流双通道内存平台英特尔方面是英特尔 865、875系列,而AMD方面则是NVIDIA Nforce2系列。 双通道内存技术是解决CPU总线带宽与内存带宽的矛盾的低价、高性能的方案。现在CPU的FSB(前端总线频率)越来越高,英特尔 Pentium 4比AMD Athlon XP对内存带宽具有高得多的需求。英特尔 Pentium 4处理器与北桥芯片的数据传输采用QDR(Quad Data Rate,四次数据传输)技术,其FSB是外频的4倍。英特尔 Pentium 4的FSB分别是400、533、800MHz,总线带宽分别是3.2GB/sec,4.2GB/sec和6.4GB/sec,而DDR 266/DDR 333/DDR 400所能提供的内存带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec。在单通道内存模式下,DDR内存无法提供CPU所需要的数据带宽从而成为系统的性能瓶颈。而在双通道内存模式下,双通道DDR 266、DDR 333、DDR 400所能提供的内存带宽分别是4.2GB/sec,5.4GB/sec和6.4GB/sec,在这里可以看到,双通道DDR 400内存刚好可以满足800MHz FSB Pentium 4处理器的带宽需求。而对AMD Athlon XP平台而言,其处理器与北桥芯片的数据传输技术采用DDR(Double Data Rate,双倍数据传输)技术,FSB是外频的2倍,其对内存带宽的需求远远低于英特尔 Pentium 4平台,其FSB分别为266、333、400MHz,总线带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec,使用单通道的DDR 266、DDR 333、DDR 400就能满足其带宽需求,所以在AMD K7平 台上使用双通道DDR内存技术,可说是收效不多,性能提高并不如英特尔平台那样明显,对性能影响最明显的还是采用集成显示芯片的整合型主板。 NVIDIA推出的nForce芯片组是第一个把DDR内存接口扩展为128-bit的芯片组,随后英特尔在它的E7500服务器主板芯片组上也使用了这种双通道DDR内存技术,SiS和VIA也纷纷响应,积极研发这项可使DDR内存带宽成倍增长的技术。但是,由于种种原因, 128 bit的并行内存接口)传输对于众多芯片组厂商来说绝非易事。要实现这种双通道DDR( DDR SDRAM内存和RDRAM内存完全不同,后者有着高延时的特性并且为串行传输方式,这些特性决定了设计一款支持双通道RDRAM内存芯片组的难度和成本都不算太高。但DDR SDRAM内存却有着自身局限性,它本身是低延时特性的,采用的是并行传输模式,还有最重要的一点:当DDR SDRAM工作频率高于400MHz时,其信号波形往往会出现失真问题,这些都为设计一款支持双通道DDR内存系统的芯片组带来不小的难度,芯片组的制造成本也会相应地提高,这些因素都制约着这项内存控制技术的发展。 普通的单通道内存系统具有一个64位的内存控制器,而双通道内存系统则有2个64位的内存控制器,在双通道模式下具有128bit的内存位宽,从而在理论上把内存带宽提高一倍。虽然双64位内存体系所提供的带宽等同于一个128位内存体系所提供的带宽,但是二者所达到效果却是不同的。双通道体系包含了两个独立的、具备互补性的智能内存控制器,理论上来说,两个内存控制器都能够在彼此间零延迟的情况下同时运作。比如说两个内存控制器,一个为A、另一个为B。当控制器B准备进行下一次存取内存的时候,控制器A就在读/写主内存,反之亦然。两个内存控制器的这种互补“天性”可以让等待时间缩减50%。双通道DDR的两个内存控制器在功能上是完全一样的,并且两个控制器的时序参数都是可以单独编程设定的。这样的灵活性可以让用户使用二条不同构造、容量、速度的DIMM内存条,此时双通道DDR简单地调整到最低的内存标准来实现128bit带宽,允许不同密度/等待时间特性的DIMM内存条可以可靠地共同运作。 支持双通道DDR内存技术的台式机芯片组,英特尔平台方面有英特尔的865P、865G、865GV、865PE、875P以及之后的915、925系列;VIA的PT880,ATI的Radeon 910 0 IGP系列,SIS的SIIS 655,SIS 655FX和SIS 655TX;AMD平台方面则有VIA的KT880,NVIDIA的nForce2 Ultra 400,nForce2 IGP,nForce2 SPP及其以后的芯片。 AMD的64位CPU,由于集成了内存控制器,因此是否支持内存双通道看CPU就可以。目前AMD的台式机CPU,只有939接口的才支持内存双通道,754接口的不支持内存双通道。除了AMD的64位CPU,其他计算机是否可以支持内存双通道主要取决于主板芯片组,支持双通道的芯片组上边有描述,也可以查看主板芯片组资料。此外有些芯片组在理论上支持不同容量的内存条实现双通道,不过实际还是建议尽量使用参数一致的两条内存条。 内存双通道一般要求按主板上内存插槽的颜色成对使用,此外有些主板还要在BIOS做一下设置,一般主板说明书会有说明。当系统已经实现双通道后,有些主板在开机自检时会有提示,可以仔细看看。由于自检速度比较快,所以可能看不到。因此可以用一些软件查看,很多软件都可以检查,比如cpu-z,比较小巧。在“memory”这一项中有“channels”项目,如果这里显示“Dual”这样的字,就表示已经实现了双通道。两条256M的内存构成双通道效果会比一条512M的内存效果好,因为一条内存无法构成双通道。 什么是PS/2接口 PS/2接口是目前最常见的鼠标接口,最初是IBM公司的专利,俗称“小口”。这是一种鼠标和键盘的专用接口,是一种6针的圆型接口。但鼠标只使用其中的4针传输数据和供电,其余2个为空脚。PS/2接口的传输速率比COM接口稍快一些,而且是ATX主板的标准接口,是目前应用最为广泛的鼠标接口之一,但仍然不能使高档鼠标完全发挥其性能,而且不支持热插拔。在BTX主板规范中,这也是即将被淘汰掉的接口。 需要注意的是,在连接PS/2接口鼠标时不能错误地插入键盘PS/2接口(当然,也不能把PS/2键盘插入鼠标PS/2接口)。一般情况下,符合PC99规范的主板,其鼠标的接口为绿色、键盘的接口为紫色,另外也可以从PS/2接口的相对位置来判断:靠近主板PCB的是键盘接口,其上方的是鼠标接口。 网卡芯片 主板网卡芯片是指整合了网络功能的主板所集成的网卡芯片,与之相对应,在主板的背板上也有相应的网卡接口(RJ-45),该接口一般位于音频接口或USB接口附近。 板载RTL8100B网卡芯片 以前由于宽带上网很少,大多都是拨号上网,网卡并非电脑的必备配件,板载网卡芯片的主板很少,如果要使用网卡就只能采取扩展卡的方式;而现在随着宽带上网的流行,网卡逐渐成为电脑的基本配件之一,板载网卡芯片的主板也越来越多了。 在使用相同网卡芯片的情况下,板载网卡与独立网卡在性能上没有什么差异,而且相对与独立网卡,板载网卡也具有独特的优势。首先是降低了用户的采购成本,例如现在板载千兆网卡的主板越来越多,而购买一块独立的千兆网卡却需要好几百元;其次,可以节约系统扩展资源,不占用独立网卡需要占用的PCI插槽或USB接口等;再次,能够实现良好的兼容性和稳定性,不容易出现独立网卡与主板兼容不好或与其它设备资源冲突的问题。 板载网卡芯片以速度来分可分为10/100Mbps自适应网卡和千兆网卡,以网络连接方式来分可分为普通网卡和无线网卡,以芯片类型来分可分为芯片组内置的网卡芯片(某些芯片组的南桥芯片,如SIS963)和主板所附加的独立网卡芯片(如Realtek 8139系列)。部分高档家用主板、服务器主板还提供了双板载网卡。 VIA和SIS等等。 板载网卡芯片主要生产商是英特尔,3Com,Realtek, 内存插槽 内存插槽是指主板上所采用的内存插槽类型和数量。主板所支持的内存种类和容量都由内存插槽来决定的。目前主要应用于主板上的内存插槽有: SIMM(Single Inline Memory Module,单内联内存模块) 168针SIMM插槽 内存条通过金手指与主板连接,内存条正反两面都带有金手指。金手指可以在两面提供不同的信号,也可以提供相同的信号。SIMM就是一种两侧金手指都提供相同信号的内存结构,它多用于早期的FPM和EDD DRAM,最初一次只能传输8bif数据,后来逐渐发展出16bit、32bit的SIMM模组,其中8bit和16bitSIMM使用30pin接口,32bit的则使用72pin接口。在内存发展进入SDRAM时代后,SIMM逐渐被DIMM技术取代。 DIMM 184针DIMM插槽 DIMM与SIMM相当类似,不同的只是DIMM的金手指两端不像SIMM那样是互通的,它们各自独立传输信号,因此可以满足更多数据信号的传送需要。同样采用DIMM,SDRA M 的接口与DDR内存的接口也略有不同,SDRAM DIMM为168Pin DIMM结构,金手指每面为84Pin,金手指上有两个卡口,用来避免插入插槽时,错误将内存反向插入而导致烧毁;DDR DIMM则采用184Pin DIMM结构,金手指每面有92Pin,金手指上只有一个卡口。卡口数量的不同,是二者最为明显的区别。DDR2 DIMM为240pin DIMM结构,金手指每面有120Pin,与DDR DIMM一样金手指上也只有一个卡口,但是卡口的位置与DDR DIMM稍微有一些不同,因此DDR内存是插不进DDR2 DIMM的,同理DDR2内存也是插不进DDR DIMM的,因此在一些同时具有DDR DIMM和DDR2 DIMM的主板上,不会出现将内存插错插槽的问题。 240针DDR2 DIMM插槽 RIMM RIMM是Rambus公司生产的RDRAM内存所采用的接口类型,RIMM内存与DIMM的外型尺寸差不多,金手指同样也是双面的。RIMM有也184 Pin的针脚,在金手指的中间部分有两个靠的很近的卡口。RIMM非ECC版有16位数据宽度,ECC版则都是18位宽。由于RDRAM内存较高的价格,此类内存在DIY市场很少见到,RIMM接口也就难得一见了。 显示芯片 显示芯片是指主板所板载的显示芯片,有显示芯片的主板不需要独立显卡就能实现普通的显示功能,以满足一般的家庭娱乐和商业应用,节省用户购买显卡的开支。板载显示芯片可以分为两种类型:整合到北桥芯片内部的显示芯片以及板载的独立显示芯片,市场中大多数板载显示芯片的主板都是前者,如常见的865G/845GE主板等;而后者则比较少见,例如精英的“游戏悍将”系列主板,板载SIS的Xabre 200独立显示芯片,并有64MB的独立显存。 主板板载显示芯片的历史已经非常悠久了,从较早期VIA的MVP4芯片组到后来英特尔的810系列,815系列,845GL/845G/845GV/845GE,865G/865GV以及910GL/915G/915GL/915GV等芯片组都整合了显示芯片。而英特尔也正是依靠了整合的显示芯片,才占据了图形芯片市场的较大份额。 目前各大主板芯片组厂商都有整合显示芯片的主板产品,而所有的主板厂商也都有对应 SIS,ATI等,AMD平的整合型主板。英特尔平台方面整合芯片组的厂商有英特尔,VIA, 台方面整合芯片组的厂商有VIA,SIS,NVIDIA等等。从性能上来说,英特尔平台方面显示芯片性能最高的是945G芯片组,而AMD平台方面显示芯片性能最高的是NVIDIA的C61P芯片组。 CPU插槽类型 我们知道,CPU需要通过某个接口与主板连接的才能进行工作。CPU经过这么多年的发展,采用的接口方式有引脚式、卡式、触点式、针脚式等。而目前CPU的接口都是针脚式接口,对应到主板上就有相应的插槽类型。不同类型的CPU具有不同的CPU插槽,因此选择CPU,就必须选择带有与之对应插槽类型的主板。主板CPU插槽类型不同,在插孔数、体积、形状都有变化,所以不能互相接插。 AMD的Socket AM2插槽采用全新设计处理器插槽,其拥有940根针脚,这种处理器内建DDR2内存控制器,可以支持最高DDR2 800的内存。而AMD计划从AM2插槽开始统一处理器的插槽,未来所有的AMD桌面处理器,包括Athlon 64, Athlon 64 X2以及Sempron处理器都会采用这种接口。需要注意的是,目前AMD把AM2架构还是在称为Rev F,到正式发布的时候就可称为AM2,并且AMD宣称这种处理器将官方支持DDR2-533, 667以及800内存,而对手英特尔目前最高内存支持的幅度仅为DDR 667;当然等到第三季度,英特尔推出Conroe核心处理器的时候,英特尔才会逐步引入DDR2 800的支持。 Socket 939插槽,是Athlon64处理器所采用的接口类型,针脚数为939针。支持 Soc ket 939 处理器的主板只需要4层 PCB。使用普通DDR内存。 Socket 940插槽,是Athlon64处理器所采用的接口类型,针脚数为940针。Socket 940接口的处理器支持双通道ECC内存,支持 Socket 940 处理器的主板必须采用6至9层PCB,必须采用带ECC校验的DDR内存。 Socket 754插槽,是Athlon64处理器所采用的接口类型,针脚数为754针。Socket 754 接口处理器支持单通道内存 LGA 775插槽,是Intel 925X Express和Intel 915 Express芯片组,所采用的接口类型,支持Pentium 4和Pentium 4 Extreme Edition处理器,针脚数为775针。 Socket 478插槽是目前Pentium 4系列处理器所采用的接口类型,针脚数为478针。Socket 478的Pentium 4处理器面积很小,其针脚排列极为紧密。采用Socket 478插槽的主板产品数量众多。 Socket A接口,也叫Socket 462,是目前AMD公司Athlon XP和Duron处理器的插座标准。Socket A接口具有462插空,可以支持133MHz外频。如同Socket 370一样,降低了制造成本,简化了结构设计。 Socket 423插槽是最初Pentium 4处理器的标准接口,Socket 423的外形和前几种Socket类的插槽类似,对应的CPU针脚数为423。Socket 423插槽多是基于Intel 850芯片组主板,支持1.3GHz,1.8GHz的Pentium 4处理器。不过随着DDR内存的流行,英特尔又开发了支持SDRAM及DDR内存的i845芯片组,CPU插槽也改成了Socket 478,Socket 423插槽也就销声匿迹了。 Socket 370架构是英特尔开发出来代替SLOT架构,外观上与Socket 7非常像,也采用零插拔力插槽,对应的CPU是370针脚。 Socket 370主板多为采用Intel ZX、BX、i810芯片组的产品,其他厂商有VIA Apoll o Pro系列、SIS 530系列等。最初认为,Socket 370的CPU升级能力可能不会太好,所以Socket 370的销量总是不如SLOT 1接口的主板。但在英特尔推出的“铜矿”和”图拉丁”系列CPU, Socket 370接口的主板一改低端形象,逐渐取代了SLOT 1接口。目前市场中还有极少部分的主板采用此种插槽。 SLOT 1是英特尔公司为取代Socket 7而开发的CPU接口,并申请的专利。这样其它厂商就无法生产SLOT 1接口的产品,也就使得AMD、VIA、SIS等公司不得不联合起来,对Socket 7接口升级,也得到了Super 7接口。后来随着Super 7接口的兴起,英特尔又将SLOT 1结构主板的制造授权提供给了VIA、SIS、ALI等主板厂商,所以这些厂商也相应推出了采用SLOT 1接口的系列主板,丰富了主板市场。 SLOT 1是英特尔公司为Pentium ?系列CPU设计的插槽,其将Pentium ? CPU及其相关控制电路、二级缓存都做在一块子卡上,多数Slot 1主板使用100MHz外频。SLOT 1的技术结构比较先进,能提供更大的内部传输带宽和CPU性能。采用SLOT 1接口的主板芯片组有Intel的BX、i810、i820系列及VIA的Apollo系列,ALI 的Aladdin Pro ?系列及SIS的620、630系列等。此种接口已经被淘汰,市面上已无此类接口的主板产品。 SLOT 2用途比较专业,都采用于高端服务器及图形工作站的系统。所用的CPU也是很昂贵的Xeon(至强)系列。Slot 2与Slot 1相比,有许多不同。首先,Slot 2插槽更长,CPU本身也都要大一些。其次,Slot 2能够胜任更高要求的多用途计算处理,这是进入高端企业计算市场的关键所在。在当时标准服务器设计中,一般厂商只能同时在系统中采用两个 Pentium ?处理器,而有了Slot 2设计后,可以在一台服务器中同时采用 8个处理器。 而且采用Slot 2接口的Pentium ? CPU都采用了当时最先进的0.25微米制造工艺。支持SLOT 2接口的主板芯片组有440GX和450NX。 SLOT A接口类似于英特尔公司的SLOT 1接口,供AMD公司的K7 Athlon使用的。在技术和性能上,SLOT A主板可完全兼容原有的各种外设扩展卡设备。它使用的并不是Intel的P6 GTL+ 总线协议,而是Digital公司的Alpha总线协议EV6。EV6架构是种较先进的架构,它采用多线程处理的点到点拓扑结构,支持200MHz的总线频率。支持SLOT A接口结构的主板芯片组主要有两种,一种是AMD的AMD 750芯片组,另一种是VIA的Apollo KX133芯片组。此类接口已被Socket A接口全面取代。 Socket 7:Socket在英文里就是插槽的意思,Socket 7也被叫做Super 7。最初是英特尔公司为Pentium MMX系列CPU设计的插槽,后来英特尔放弃Socket 7接口转向SLOT 1接口,AMD、VIA、ALI、SIS等厂商仍然沿用此接口,直至发展出Socket A接口。该插槽基本特征为321插孔,系统使用66MHz的总线。Super 7主板增加了对100MHz外频和AGP接口类型的支持。 Super 7采用的芯片组有VIA公司的MVP3、MVP4系列,SIS公司的530/540系列及ALI的Aladdin V系列等主板产品。对应Super 7接口CPU的产品有AMD K6-2、K6-? 、Cyrix M2及一些其他厂商的产品。此类接口目前已被淘汰,只有部分老产品才能见到。 前端总线频率 总线是将计算机微处理器与内存芯片以及与之通信的设备连接起来的硬件通道。前端总线将CPU连接到主内存和通向磁盘驱动器、调制解调器以及网卡这类系统部件的外设总线。人们常常以MHz表示的速度来描述总线频率。 前端总线(FSB)频率是直接影响CPU与内存直接数据交换速度。由于数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽,(总线频率×数据位宽)?8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz,1066MHz,1333MHz几种,前端总线频率越大,代表着CPU与内存之间的数据传输量越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU。较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。 外频与前端总线频率的区别:前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一千万次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit=6400Mbit/s=800MByte/s(1Byte=8bit)。 主板支持的前端总线是由芯片组决定的,一般都带有足够的向下兼容性。如865PE主板支持800MHz前端总线,那安装的CPU的前端总线可以是800MHz,也可以是533MHz,但这样就无法发挥出主板的全部功效。 芯片组 芯片组(Chipset)是主板的核心组成部分,如果说中央处理器(CPU)是整个电脑系统的心脏,那么芯片组将是整个身体的躯干。在电脑界称设计芯片组的厂家为Core Logic,Core的中文意义是核心或中心,光从字面的意义就足以看出其重要性。对于主板而言,芯片组几乎决定了这块主板的功能,进而影响到整个电脑系统性能的发挥,芯片组是主板的灵魂。芯片组性能的优劣,决定了主板性能的好坏与级别的高低。这是因为目前CPU的型号 与种类繁多、功能特点不一,如果芯片组不能与CPU良好地协同工作,将严重地影响计算机的整体性能甚至不能正常工作。 主板芯片组几乎决定着主板的全部功能,其中CPU的类型、主板的系统总线频率,内存类型、容量和性能,显卡插槽规格是由芯片组中的北桥芯片决定的;而扩展槽的种类与数量、扩展接口的类型和数量(如USB2.0/1.1,IEEE1394,串口,并口,笔记本的VGA输出接口)等,是由芯片组的南桥决定的。还有些芯片组由于纳入了3D加速显示(集成显示芯片)、AC,97声音解码等功能,还决定着计算机系统的显示性能和音频播放性能等。 台式机芯片组要求有强大的性能,良好的兼容性,互换性和扩展性,对性价比要求也最高,并适度考虑用户在一定时间内的可升级性,扩展能力在三者中最高。在最早期的笔记本设计中并没有单独的笔记本芯片组,均采用与台式机相同的芯片组,随着技术的发展,笔记本专用CPU的出现,就有了与之配套的笔记本专用芯片组。笔记本芯片组要求较低的能耗,良好的稳定性,但综合性能和扩展能力在三者中却也是最低的。服务器/工作站芯片组的综合性能和稳定性在三者中最高,部分产品甚至要求全年满负荷工作,在支持的内存容量方面也是三者中最高,能支持高达十几GB甚至几十GB的内存容量,而且其对数据传输速度和数据安全性要求最高,所以其存储设备也多采用SCSI接口而非IDE接口,而且多采用RAID方式提高性能和保证数据的安全性。 到目前为止,能够生产芯片组的厂家有英特尔(美国)、VIA(中国台湾)、SiS(中国台湾)、ULI(中国台湾)、AMD(美国)、NVIDIA(美国)、ATI(加拿大)、ServerWorks(美国)、IBM(美国)、HP(美国)等为数不多的几家,其中以英特尔和NVIDIA以及VIA的芯片组最为常见。在台式机的英特尔平台上,英特尔自家的芯片组占有最大的市场份额,而且产品线齐全,高、中、低端以及整合型产品都有,其它的芯片组厂商VIA、SIS、ULI以及最新加入的ATI和NVIDIA几家加起来都只能占有比较小的市场份额,除NVIDIA之外的其它厂家主要是在中低端和整合领域,NVIDIA则只具有中、高端产品,缺乏低端产品,产品线都不完整。在AMD平台上,AMD自身通常是扮演一个开路先锋的角色,产品少,市场份额也很小,而VIA以前却占有AMD平台芯片组最大的市场份额,但现在却 受到后起之秀NVIDIA的强劲挑战,后者凭借其nForce2、nForce3以及现在的nForce4系列芯片组的强大性能,成为AMD平台最优秀的芯片组产品,进而从VIA手里夺得了许多市场份额,目前已经成为AMD平台上市场占用率最大的芯片组厂商,而SIS与ULI依旧是扮演配角,主要也是在中、低端和整合领域。笔记本方面,英特尔平台具有绝对的优势,所以英特尔自家的笔记本芯片组也占据了最大的市场分额,其它厂家都只能扮演配角以及为市场份额极小的AMD平台设计产品。服务器/工作站方面,英特尔平台更是绝对的优势地位,英特尔自家的服务器/工作站芯片组产品占据着绝大多数的市场份额,但在基于英特尔架构的高端多路服务器领域方面,IBM和HP却具有绝对的优势,例如IBM的XA32以及HP的F8都是非常优秀的高端多路服务器芯片组产品,只不过都是只应用在本公司的服务器产品上而名声不是太大罢了;而AMD服务器/工作站平台由于市场份额较小,以前主要都是采用AMD自家的芯片组产品,现在也有部分开始采用NVIDIA的产品。值得注意的是,曾经在基于英特尔架构的服务器/工作站芯片组领域风光无限的ServerWorks在被Broadcom收购之后已经彻底退出了芯片组市场;而ULI也已经被NVIDIA收购,也极有可能退出芯片组市场。 芯片组的技术这几年来也是突飞猛进,从ISA、PCI、AGP到PCI-Express,从ATA到SATA,Ultra DMA技术,双通道内存技术,高速前端总线等等 ,每一次新技术的进步都带来电脑性能的提高。2004年,芯片组技术又会面临重大变革,最引人注目的就是PCI Express总线技术,它将取代PCI和AGP,极大的提高设备带宽,从而带来一场电脑技术的革命。另一方面,芯片组技术也在向着高整合性方向发展,例如AMD Athlon 64 CPU内部已经整合了内存控制器,这大大降低了芯片组厂家设计产品的难度,而且现在的芯片组产品已经整合了音频,网络,SATA,RAID等功能,大大降低了用户的成本。 北桥芯片 北桥芯片(North Bridge)是主板芯片组中起主导作用的最重要的组成部分,也称为主桥(Host Bridge)。一般来说,芯片组的名称就是以北桥芯片的名称来命名的,例如英特尔 845E芯片组的北桥芯片是82845E,875P芯片组的北桥芯片是82875P等等。北桥芯片负责与CPU的联系并控制内存、AGP、PCI数据在北桥内部传输,提供对CPU的类型 和主频、系统的前端总线频率、内存的类型(SDRAM,DDR SDRAM以及RDRAM等等)和最大容量、ISA/PCI/AGP插槽、ECC纠错等支持,整合型芯片组的北桥芯片还集成了显示核心。北桥芯片就是主板上离CPU最近的芯片,这主要是考虑到北桥芯片与处理器之间的通信最密切,为了提高通信性能而缩短传输距离。因为北桥芯片的数据处理量非常大,发热量也越来越大,所以现在的北桥芯片都覆盖着散热片用来加强北桥芯片的散热,有些主板的北桥芯片还会配合风扇进行散热。因为北桥芯片的主要功能是控制内存,而内存标准与处理器一样变化比较频繁,所以不同芯片组中北桥芯片是肯定不同的,当然这并不是说所采用的内存技术就完全不一样,而是不同的芯片组北桥芯片间肯定在一些地方有差别。 由于已经发布的AMD K8核心的CPU将内存控制器集成在了CPU内部,于是支持K8芯片组的北桥芯片变得简化多了,甚至还能采用单芯片芯片组结构。这也许将是一种大趋势,北桥芯片的功能会逐渐单一化,为了简化主板结构、提高主板的集成度,也许以后主流的芯片组很有可能变成南北桥合一的单芯片形式(事实上SIS老早就发布了不少单芯片芯片组)。 由于每一款芯片组产品就对应一款相应的北桥芯片,所以北桥芯片的数量非常多。针对不同的平台,目前主流的北桥芯片有以下产品(不包括较老的产品而且只对用户最多的英特尔芯片组作较详细的说明) 上图主板中间,紧靠着CPU插槽,上面覆盖着银白色散热片的芯片就是主板的北桥芯 片。 英特尔平台方面: 英特尔 845系列芯片组的82845E/82845GL/82845G/82845GV/82845GE/82845PE,除82845GL以外都支持533MHz FSB(82845GL只支持400MHz FSB),支持内存方面,所有845系列北桥都支持最大2GB内存。82845GL/82845E支持DDR 266,其余都支持DDR 333。除82845GL/82845GV之外都支持AGP 4X规范;865系列芯片组的82865P/82865G/82865PE/82865GV/82848P,除82865P之外都支持800MHz FSB,DDR 400(82865P只支持533MHz FSB,DDR 333,除82848P之外都支持双通道内存以及最大4GB内存容量(82848P只支持单通道最大2GB内存),除82865GV之外都支持AGP 8X规范;还有目前最高端的875系列的82875P北桥,支持800MHz FSB,4GB双通道DDR 400以及PAT功能。英特尔的芯片组或北桥芯片名称中带有“G”字样的还整合了图形核心。 SIS 主要有支持DDR SDRAM内存的SIS648/SIS648FX/SIS655/SIS655FX/SIS655TX以及整合了图形核心的SIS661FX,还有支持RDRAM内存的SISR659等等。 ATI 主要就是Radeon 9100 IGP北桥芯片,这是目前英特尔平台图形性能最强劲的整合芯片组北桥芯片。 VIA 主要有比较新的PT800/PT880/PM800/PM880以及较早期的P4X400/P4X333/P4X266/P4X266A/P4X266E/P4M266等等,其中,VIA芯片组名称或北桥名称中带有“M”字样的还整合了图形核心(英特尔平台和AMD平台都如此)。 Ali 离开芯片组市场多年,目前产品不多,主要是比较新的M1681和M1683。 AMD平台方面 VIA 主要有支持K7系列CPU(Athlon/Duron/Athlon XP)的比较新的KT880/KT600/KT400A以及较早期的KT400/KM400/KT333/KT266A/KT266/KT133/KT133A等等。支持K8系列CPU(Opteron/Athlon 64/Athlon 64 FX )的有K8T800和K8M800。 SIS 主要有支持K7系列CPU的SIS748/SIS746/SIS746FX/SIS745/SIS741/SIS741GX/SI S740/SIS735,以及支持k8系列CPU的SIS755/SIS755FX/SIS760等等。 NVIDIA 主要有支持K7系列CPU的nForce2 IGP/SPP,nForce2 Ultra 400,nForce2 400以及支持K8系列CPU的nForce3 150和nForce3 250等等。 ALi 离开芯片组市场多年,目前产品不多,主要有支持K8系列CPU的M1687和M1689。 主板结构 由于主板是电脑中各种设备的连接载体,而这些设备的各不相同的,而且主板本身也有芯片组,各种I/O控制芯片,扩展插槽,扩展接口,电源插座等元器件,因此制定一个标准以协调各种设备的关系是必须的。所谓主板结构就是根据主板上各元器件的布局排列方式,尺寸大小,形状,所使用的电源规格等制定出的通用标准,所有主板厂商都必须遵循。 主板结构分为AT、Baby-AT、ATX、Micro ATX、LPX、NLX、Flex ATX、EATX、WATX以及BTX等结构。其中,AT和Baby-AT是多年前的老主板结构,现在已经淘汰;而LPX、NLX、Flex ATX则是ATX的变种,多见于国外的品牌机,国内尚不多见;EATX和 WATX则多用于服务器/工作站主板;ATX是目前市场上最常见的主板结构,扩展插槽较多,PCI插槽数量在4-6个,大多数主板都采用此结构;Micro ATX又称Mini ATX,是ATX结构的简化版,就是常说的“小板”,扩展插槽较少,PCI插槽数量在3个或3个以下,多用于品牌机并配备小型机箱;而BTX则是英特尔制定的最新一代主板结构。 在PC推出后的第三年即1984年,IBM公布了PCAT。AT主板的尺寸为13"×12",板上集成有控制芯片和8个I/0扩充插槽。由于AT主板尺寸较大,因此系统单元(机箱)水平方向增加了2英寸,高度增加了1英寸,这一改变也是为了支持新的较大尺寸的AT格式适配卡。将8位数据、20位地址的XT扩展槽改变到16位数据、24位地址的AT扩展槽。为了保持向下兼容,它保留62脚的XT扩展槽,然后在同列增加36脚的扩展槽。XT扩展卡仍使用62脚扩展槽(每侧31脚),AT扩展卡使用共98脚的的两个同列扩展槽。这种PC AT总线结构演变策略使得它仍能在当今的任何一个PC Pentium/PCI系统上正常运行。 PC AT的初始设计是让扩展总线以微处理器相同的时钟速率来运行,即6MHz 的286,总线也是6MHz;8MHz的微处理器,则总线就是8MHz。随着微处理器速度的增加,增加扩展总线的速度也很简单。后来一些PC AT系统的扩展总线速度达到了10和12MHz。不幸的是,某些适配器不能以这样的速度工作或者能很好得工作。因此,绝大多数的PC AT仍以8或8.33MHz为扩展总线的速率,在此速度下绝大多数适配器都不能稳定工作。 AT主板尺寸较大,板上能放置较多的元件和扩充插槽。但随着电子元件集成化程度的提高,相同功能的主板不再需要全AT的尺寸。因此在1990年推出了Baby/Mini AT主板规范,简称为Baby AT主板。 Baby AT主板是从最早的XT主板继承来的,它的大小为15"×8.5",比AT主板是略长,而宽度大大窄于AT主板。Baby AT主板沿袭了AT主板的I/0扩展插槽、键盘插座等外设接口及元件的摆放位置,而对内存槽等内部元件结构进行了紧缩,再加上大规模集成电路使内部元件减少,使得Baby AT主板比AT主板布局紧凑而功能不减。 但随着计算机硬件技术的进一步发展,计算机主板上集成功能越来越多,Baby AT主板有点不负重荷,而AT主板又过于庞大,于是很多主板商又采取另一种折衷的方案,即一方面取消主板上使用较少的零部件以压缩空间(如将I/0扩展槽减为7个甚至6个,另一方面将Baby AT主板适当加宽,增加使用面积,这就形成了众多的规格不一的Baby AT主 板。当然这些主板对基本I/0插槽、外围设备接口及主板固定孔的位置不加改动,使得即使是最小的Baby AT主板也能在标准机箱上使用。最常见的Baby AT主板尺寸是3/4Baby AT主板(26.5cm×22cm即10.7"×8.7"),采用7个I/0扩展槽。 由于Baby AT主板市场的不规范和AT主板结构过于陈旧,英特尔在95年1月公布了扩展AT主板结构,即ATX(AT extended)主板标准。这一标准得到世界主要主板厂商支持,目前已经成为最广泛的工业标准。97年2月推出了ATX2.01版。 ATX结构主板 [ Baby AT结构标准的首先表现在主板横向宽度太窄(一般为22cm),使得直接从主板引出接口的空间太小。大大限制了对外接口的数量,这对于功能载来越强、对外接口越来越多的微机来说,是无法克服的缺点。其次,Baby AT主板上CPU和I/0插槽的位置安排不合理。早期的CPU由于性能低、功耗小,散热的要求不高。而今天的CPU性能高、功耗大,为了使其工作稳定,必须要有良好的散热装置,加装散热片或风扇,因而大大增加了CPU的高度。在AT结构标准里CPU位于扩展槽的下方,使得很多全长的扩展卡插不上去或插上去后阻碍CPU风扇运转。内存的位置也不尽合理。早期的计算机内存大小是固定的,对安装位置无特殊要求。Baby AT主板在结构上按习惯把内存插槽安放在机箱电源的下方, 安装、更换内存条往往要拆下电源或主板,很不方便。内存条散热条件也不好。此外,由于软硬盘控制器及软硬盘支架没有特定的位置,这造成了软硬盘线缆过长,增加了电脑内部连线的混乱,降低了电脑的中靠性。甚至由于硬盘线缆过长,使很多高速硬盘的转速受到影响。ATX主板针对AT和Baby AT主板的缺点做了以下改进: , 主板外形在Baby AT的基础上旋转了90度,其几何尺寸改为30.5cm×24.4cm。 , 采用7个I/O插槽,CPU与I/O插槽、内存插槽位置更加合理。 , 优化了软硬盘驱动器接口位置。 , 提高了主板的兼容性与可扩充性。 , 采用了增强的电源管理,真正实现电脑的软件开/关机和绿色节能功能。 Micro ATX保持了ATX标准主板背板上的外设接口位置,与ATX兼容。 MATX结构主板 Micro ATX主板把扩展插槽减少为3-4只,DIMM插槽为2-3个,从横向减小了主板宽度,其总面积减小约0.92平方英寸,比ATX标准主板结构更为紧凑。按照Micro ATX标 准,板上还应该集成图形和音频处理功能。目前很多品牌机主板使用了Micro ATX标准,在DIY市场上也常能见到Micro ATX主板。 BTX是英特尔提出的新型主板架构Balanced Technology Extended的简称,是ATX结构的替代者,这类似于前几年ATX取代AT和Baby AT一样。革命性的改变是新的BTX规格能够在不牺牲性能的前提下做到最小的体积。新架构对接口、总线、设备将有新的要求。重要的是目前所有的杂乱无章,接线凌乱,充满噪音的PC机将很快过时。当然,新架构仍然提供某种程度的向后兼容,以便实现技术革命的顺利过渡。 BTX具有如下特点: , 支持Low-profile,也即窄板设计,系统结构将更加紧凑; , 针对散热和气流的运动,对主板的线路布局进行了优化设计; , 主板的安装将更加简便,机械性能也将经过最优化设计。 而且,BTX提供了很好的兼容性。目前已经有数种BTX的派生版本推出,根据板型宽 325.12mm), microBTX (264.16mm)及Low-profile的pic度的不同分为标准BTX ( oBTX (203.20mm),以及未来针对服务器的Extended BTX。而且,目前流行的新总线和接口,如PCI Express和串行ATA等,也将在BTX架构主板中得到很好的支持。 值得一提的是,新型BTX主板将通过预装的SRM(支持及保持模块)优化散热系统,特别是对CPU而言。另外,散热系统在BTX的术语中也被称为热模块。一般来说,该模块包括散热器和气流通道。目前已经开发的热模块有两种类型,即full-size及low-profile。 得益于新技术的不断应用,将来的BTX主板还将完全取消传统的串口、并口、PS/2等接口。 什么是多媒体指令集 CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而 从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为"CPU的指令集"。 1、精简指令集的运用 在最初发明计算机的数十年里,随着计算机功能日趋增大,性能日趋变强,内部元器件也越来越多,指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作效率。后来经过研究发现,在计算机中,80,程序只用到了20,的指令集,基于这一发现,RISC精简指令集被提了出来,这是计算机系统架构的一次深刻革命。RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减少指令种类、规范指令格式和简化寻址方式,方便处理器内部的并行处理,提高VLSI器件的使用效率,从而大幅度地提高处理器的性能。 RISC指令集有许多特征,其中最重要的有: , 指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式。指令长度单一(一般4个字节),并且在字边界上对齐,字段位置、特别是操作码的位置是固定的。 , 寻址方式简化:几乎所有指令都使用寄存器寻址方式,寻址方式总数一般不超过5个。其他更为复杂的寻址方式,如间接寻址等则由软件利用简单的寻址方式来合成。 , 大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作,只以简单的Load和Store操作访问内存。因此,每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起。 , 简化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计,不必使用大量专用寄存器,特别是允许以硬件线路来实现指令操作,而不必 像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器,就能够快速地直接执行指令。 , 便于使用VLSI技术:随着LSI和VLSI技术的发展,整个处理器(甚至多个处理器)都可以放在一个芯片上。RISC体系结构可以给设计单芯片处理器带来很多好处,有利于提高性能,简化VLSI芯片的设计和实现。基于VLSI技术,制造RISC处理器要比CISC处理器工作量小得多,成本也低得多。 , 加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术,从而实现指令级并行操作,提高处理器的性能。目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。 正由于RISC体系所具有的优势,它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位。而在如今,在桌面领域,RISC也不断渗透,预计未来,RISC将要一统江湖。 2、CPU的扩展指令集 对于CPU来说,在基本功能方面,它们的差别并不太大,基本的指令集也都差不多,但是许多厂家为了提升某一方面性能,又开发了扩展指令集,扩展指令集定义了新的数据和指令,能够大大提高某方面数据处理能力,但必需要有软件支持。 MMX 指令集 MMX(Multi Media eXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术。MMX指令集中包括有57条多媒体指令,通过这些指令可以一次处理多个数据,在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下,就可以得到更高的性能。MMX的益处在于,当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是,问题也比较明显,那就是MMX指令集与x87浮点运算指令不能够同时执行,必须做密集式的交错切换才可以正常执行,这种情况就 势必造成整个系统运行质量的下降。 SSE指令集 SSE(Streaming SIMD Extensions,单指令多数据流扩展)指令集是Intel在Pentium III处理器中率先推出的。其实,早在PIII正式推出之前,Intel公司就曾经通过各种渠道 Katmai New Instruction)指令集,这个指令集也就是SSE指令集的公布过所谓的KNI( 前身,并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集。究其背景,原来"KNI"指令集是Intel公司最早为其下一代芯片命名的指令集名称,而所谓的"MMX2"则完全是硬件评论家们和媒体凭感觉和印象对"KNI"的 评价,Intel公司从未正式发布过关于MMX2的消息。 而最终推出的SSE指令集也就是所谓胜出的"互联网SSE"指令集。SSE指令集包括了70条指令,其中包含提高3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX 整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。SSE指令与3DNow!指令彼此互不兼容,但SSE包含了3DNow!技术的绝大部分功能,只是实现的方法不同。SSE兼容MMX指令,它可以通过SIMD和单时钟周期并行处理多个浮点数据来有效地提高浮点运算速度。 SSE2指令集 SSE2(Streaming SIMD Extensions 2,Intel官方称为SIMD 流技术扩展 2或数据流单指令多数据扩展指令集 2)指令集是Intel公司在SSE指令集的基础上发展起来的。相比于SSE,SSE2使用了144个新增指令,扩展了MMX技术和SSE技术,这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整数指令从64位扩展到了128 位,使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以 SIMD格式同时执行两个浮点操作,提供双倍精度操作支持有助于加速内容创建、财务、工程和科学 应用。除SSE2指令之外,最初的SSE指令也得到增强,通过支持多种数据类型(例如,双字和四字)的算术运算,支持灵活并且动态范围更广的计算功能。SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增强性能。Intel是从Willamette核心的Pentium 4开始支持SSE2指令集的,而AMD则是从K8架构的SledgeHammer核心的Opteron开始才支持SSE2指令集的。 SSE3指令集 SSE3(Streaming SIMD Extensions 3,Intel官方称为SIMD 流技术扩展 3或数据流单指令多数据扩展指令集 3)指令集是Intel公司在SSE2指令集的基础上发展起来的。相比于SSE2,SSE3在SSE2的基础上又增加了13个额外的SIMD指令。SSE3 中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如媒体和游戏。这些新增指令强化了处理器在浮点转换至整数、复杂算法、视频编码、SIMD浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体和游戏性能的目的。Intel是从Prescott核心的Pentium 4开始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的Opteron开始才支持SSE3的。但是需要注意的是,AMD所支持的SSE3与Intel的SSE3并不完全相同,主要是删除了针对Intel超线程技术优化的部分指令。 3D Now!(3D no waiting)指令集 3DNow~是AMD公司开发的SIMD指令集,可以增强浮点和多媒体运算的速度,并被AMD广泛应用于其K6-2 、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。 与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换 和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced 3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及Pentium III成功的影响,软件在支持SSE上 比起3DNow!更为普遍。Enhanced 3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。 什么是CPU针脚数 CPU针脚数: 目前CPU都采用针脚式接口与主板相连,而不同的接口的CPU在针脚数上各不相同。CPU接口类型的命名,习惯用针脚数来表示,比如目前Pentium 4系列处理器所采用的Socket 478接口,其针CPU脚数就为478针;而Athlon XP系列处理器所采用的Socket 939接口,其CPU针脚数就为939针。 原则上CPU性能的好坏和针脚数的多少是没有关系的,而且CPU针脚也并不是每个针脚都是起作用的,也就是说其实CPU上还有些针脚是没有任何作用的“摆设”,是闲置起的。这是因为CPU厂商在设计CPU时,必然会考虑到今后一段时间内的功能扩展和性能提高,而会预留一些暂时不起作用的针脚以便今后改进。不过随着CPU技术的发展,需要越来越多的CPU针脚以实现更丰富的功能以及更高的性能,例如集成双通道内存控制器所需要的针脚数量就要比只集成单通道内存控制器所需要的针脚数要多得多,因此总的来说CPU针脚数有越来越多的趋势,基本上可以认为针脚多的CPU其架构也越先进。但是任何事物都不是绝对的,例如AMD在移动平台上用来取代Socket 754的Socket S1其针脚数反而从754根减少到了638根。 接口类型 针脚数 Socket 771 771 Socket AM2 940 Socket S1 638 Socket F 1207 Socket 479 479 Socket 775 775 Socket 939 939 Socket 754 754 Socket 940 940 Socket 478 478 Socket 423 423 Socket 604 604 Socket 603 603 Socket A 462 Socket 370 370 什么是核心电压 CPU的工作电压(Supply Voltage),即CPU正常工作所需的电压。任何电器在工作的时候都需要电,自然也有对应额定电压,CPU也不例外。目前CPU的工作电压有一个非常明显的下降趋势,较低的工作电压主要三个优点: 1. 采用低电压的CPU的芯片总功耗降低了。功耗降低,系统的运行成本就相应降低, 这对于便携式和移动系统来说非常重要,使其现有的电池可以工作更长时间,从而使电 池的使用寿命大大延长; 2. 功耗降低,致使发热量减少,运行温度不过高的CPU可以与系统更好的配合; 3. 降低电压是CPU主频提高的重要因素之一。 CPU的工作电压分为两个方面,CPU的核心电压与I/O电压。核心电压即驱动CPU核心芯片的电压,I/O电压则指驱动I/O电路的电压。通常CPU的核心电压小于等于I/O电压。 早期CPU(286,486时代)的核心电压与I/O一致,通常为5V,由于当时的制造工艺相对落后,以致CPU的发热量过大,导致其寿命缩短。不过那时的CPU集成度很低,而目前的CPU集成度相当高,因此显得现在的CPU发热量更大。随着CPU的制造工艺提高,近年来各种CPU的工作电压有逐步下降的趋势,目前台式机用CPU核电压通常为2V以内,笔记本专用CPU的工作电压相对更低,从而达到大幅减少功耗的目的,以延长电池 的使用寿命,并降低了CPU发热量。而且现在的CPU会通过特殊的电压ID(VID)引脚来指示主板中嵌入的电压调节器自动设置正确的电压级别。 许多面向新款CPU的主板都会提供特殊的跳线或者软件设置,通过这些跳线或软件,可以根据具体需要手动调节CPU的工作电压。很多实验表明在超频的时候适度提高核心电压,可以加强CPU内部信号,对CPU性能的提升会有很大帮助——但这样也会提高CPU的功耗,影响其寿命及发热量,建议一般用户不要进行此方面的操作。 此外从Vinice核心的Athlon 64开始,AMD在Socket 939接口的处理器上采用了动态电压,在CPU封装上不再标明CPU的默认核心电压,同一核心的CPU其核心电压是可变的,不同的CPU可能会有不同的核心电压:1.30V、1.35V或1.40V。 CPU封装技术 CPU封装技术 所谓“CPU封装技术”是一种将集成电路用绝缘的塑料或陶瓷材料打包的技术。以CPU为例,我们实际看到的体积和外观并不是真正的CPU内核的大小和面貌,而是CPU内核等元件经过封装后的产品。 CPU封装对于芯片来说是必须的,也是至关重要的。因为芯片必须与外界隔离,以防止空气中的杂质对芯片电路的腐蚀而造成电气性能下降。另一方面,封装后的芯片也更便于安装和运输。由于封装技术的好坏还直接影响到芯片自身性能的发挥和与之连接的PCB(印制电路板)的设计和制造,因此它是至关重要的。封装也可以说是指安装半导体集成电路芯片用的外壳,它不仅起着安放、固定、密封、保护芯片和增强导热性能的作用,而且还是沟通芯片内部世界与外部电路的桥梁——芯片上的接点用导线连接到封装外壳的引脚上,这些引脚又通过印刷电路板上的导线与其他器件建立连接。因此,对于很多集成电路产品而言,封装技术都是非常关键的一环。 目前采用的CPU封装多是用绝缘的塑料或陶瓷材料包装起来,能起着密封和提高芯片 电热性能的作用。由于现在处理器芯片的内频越来越高,功能越来越强,引脚数越来越多,封装的外形也不断在改变。封装时主要考虑的因素: 1. 芯片面积与封装面积之比为提高封装效率,尽量接近1:1 2. 引脚要尽量短以减少延迟,引脚间的距离尽量远,以保证互不干扰,提高性能 3. 基于散热的要求,封装越薄越好 作为计算机的重要组成部分,CPU的性能直接影响计算机的整体性能。而CPU制造工艺的最后一步也是最关键一步就是CPU的封装技术,采用不同封装技术的CPU,在性能上存在较大差距。只有高品质的封装技术才能生产出完美的CPU产品。 CPU芯片的封装技术: DIP封装 DIP封装(Dual In-line Package),也叫双列直插式封装技术,指采用双列直插形式封装的集成电路芯片,绝大多数中小规模集成电路均采用这种封装形式,其引脚数一般不超过100。DIP封装的CPU芯片有两排引脚,需要插入到具有DIP结构的芯片插座上。当然,也可以直接插在有相同焊孔数和几何排列的电路板上进行焊接。DIP封装的芯片在从芯片插座上插拔时应特别小心,以免损坏管脚。DIP封装结构形式有:多层陶瓷双列直插式DIP,单层陶瓷双列直插式DIP,引线框架式DIP(含玻璃陶瓷封接式,塑料包封结构式,陶瓷低熔玻璃封装式)等。 DIP封装具有以下特点: 1.适合在PCB(印刷电路板)上穿孔焊接,操作方便。 2.芯片面积与封装面积之间的比值较大,故体积也较大。 最早的4004、8008、8086、8088等CPU都采用了DIP封装,通过其上的两排引脚可插到主板上的插槽或焊接在主板上。 QFP封装 这种技术的中文含义叫方型扁平式封装技术(Plastic Quad Flat Pockage),该技术 实现的CPU芯片引脚之间距离很小,管脚很细,一般大规模或超大规模集成电路采用这种封装形式,其引脚数一般都在100以上。该技术封装CPU时操作方便,可靠性高;而且其封装外形尺寸较小,寄生参数减小,适合高频应用;该技术主要适合用SMT表面安装技术在PCB上安装布线。 PFP封装 该技术的英文全称为Plastic Flat Package,中文含义为塑料扁平组件式封装。用这种技术封装的芯片同样也必须采用SMD技术将芯片与主板焊接起来。采用SMD安装的芯片不必在主板上打孔,一般在主板表面上有设计好的相应管脚的焊盘。将芯片各脚对准相应的焊盘,即可实现与主板的焊接。用这种方法焊上去的芯片,如果不用专用工具是很难拆卸下来的。该技术与上面的QFP技术基本相似,只是外观的封装形状不同而已。 PGA封装 该技术也叫插针网格阵列封装技术(Ceramic Pin Grid Arrau Package),由这种技术封装的芯片内外有多个方阵形的插针,每个方阵形插针沿芯片的四周间隔一定距离排列,根据管脚数目的多少,可以围成2,5圈。安装时,将芯片插入专门的PGA插座。为了使得CPU能够更方便的安装和拆卸,从486芯片开始,出现了一种ZIF CPU插座,专门用来满足PGA封装的CPU在安装和拆卸上的要求。该技术一般用于插拔操作比较频繁的场合之下。 BGA封装 BGA技术(Ball Grid Array Package)即球栅阵列封装技术。该技术的出现便成为CPU、主板南、北桥芯片等高密度、高性能、多引脚封装的最佳选择。但BGA封装占用基板的面积比较大。虽然该技术的I/O引脚数增多,但引脚之间的距离远大于QFP,从而提高了组装成品率。而且该技术采用了可控塌陷芯片法焊接,从而可以改善它的电热性能。另外该技术的组装可用共面焊接,从而能大大提高封装的可靠性;并且由该技术实现的封装CPU信号传输延迟小,适应频率可以提高很大。 BGA封装具有以下特点: 1.I/O引脚数虽然增多,但引脚之间的距离远大于QFP封装方式,提高了成品率 2.虽然BGA的功耗增加,但由于采用的是可控塌陷芯片法焊接,从而可以改善电热性能 3.信号传输延迟小,适应频率大大提高 4.组装可用共面焊接,可靠性大大提高 目前较为常见的封装形式: OPGA封装 OPGA(Organic pin grid Array,有机管脚阵列)。这种封装的基底使用的是玻璃纤维,类似印刷电路板上的材料。 此种封装方式可以降低阻抗和封装成本。OPGA封装拉近了外部电容和处理器内核的距离,可以更好地改善内核供电和过滤电流杂波。AMD公司的AthlonXP系列CPU大多使用此类封装。 mPGA封装 mPGA,微型PGA封装,目前只有AMD公司的Athlon 64和英特尔公司的Xeon(至强)系列CPU等少数产品所采用,而且多是些高端产品,是种先进的封装形式。 CPGA封装 CPGA也就是常说的陶瓷封装,全称为Ceramic PGA。主要在Thunderbird(雷鸟)核心和“Palomino”核心的Athlon处理器上采用。 FC-PGA封装 FC-PGA封装是反转芯片针脚栅格阵列的缩写,这种封装中有针脚插入插座。这些芯片被反转,以至片模或构成计算机芯片的处理器部分被暴露在处理器的上部。通过将片模暴露出来,使热量解决方案可直接用到片模上,这样就能实现更有效的芯片冷却。为了通过隔绝电源信号和接地信号来提高封装的性能,FC-PGA 处理器在处理器的底部的电容放置区域(处理器中心)安有离散电容和电阻。芯片底部的针脚是锯齿形排列的。此外,针脚的安排方式使得处理器只能以一种方式插入插座。FC-PGA 封装用于奔腾 III 和英特尔 赛扬 处 理器,它们都使用 370 针。 FC-PGA2封装 FC-PGA2 封装与 FC-PGA 封装类型很相似,除了这些处理器还具有集成式散热器 (IHS)。集成式散热器是在生产时直接安装到处理器片上的。由于 IHS 与片模有很好的热接触并且提供了更大的表面积以更好地发散热量,所以它显著地增加了热传导。FC-PGA2 封装用于奔腾 III 和英特尔赛扬处理器(370 针)和奔腾 4 处理器(478 针)。 OOI封装 OOI 是 OLGA 的简写。OLGA 代表了基板栅格阵列。OLGA 芯片也使用反转芯片设计,其中处理器朝下附在基体上,实现更好的信号完整性、更有效的散热和更低的自感应。OOI 有一个集成式导热器 (IHS),能帮助散热器将热量传给正确安装的风扇散热器。OOI 用于奔腾 4 处理器,这些处理器有 423 针。 PPGA封装 “PPGA”的英文全称为“Plastic Pin Grid Array”,是塑针栅格阵列的缩写,这些处理器具有插入插座的针脚。为了提高热传导性,PPGA 在处理器的顶部使用了镀镍铜质散热器。芯片底部的针脚是锯齿形排列的。此外,针脚的安排方式使得处理器只能以一种方式插入插座。 S.E.C.C.封装 “S.E.C.C.”是“Single Edge Contact Cartridge”缩写,是单边接触卡盒的缩写。为了与主板连接,处理器被插入一个插槽。它不使用针脚,而是使用“金手指”触点,处理器使用这些触点来传递信号。S.E.C.C. 被一个金属壳覆盖,这个壳覆盖了整个卡盒组件的顶端。卡盒的背面是一个热材料镀层,充当了散热器。S.E.C.C. 内部,大多数处理器有一个被称为基体的印刷电路板连接起处理器、二级高速缓存和总线终止电路。S.E.C.C. 封装用于有 242 个触点的英特尔奔腾II 处理器和有 330 个触点的奔腾II 至强和奔腾 III 至强处理器。 S.E.C.C.2 封装 S.E.C.C.2 封装与 S.E.C.C. 封装相似,除了S.E.C.C.2 使用更少的保护性包装并且不含有导热镀层。S.E.C.C.2 封装用于一些较晚版本的奔腾II 处理器和奔腾 III 处理器(242 触点)。 S.E.P.封装 “Single Edge Processor”的缩写,是单边处理器的缩写。“S.E.P.”封装类似于“S. “S.E.P.”是 E.C.C.”或者“S.E.C.C.2”封装,也是采用单边插入到Slot插槽中,以金手指与插槽接触,但是它没有全包装外壳,底板电路从处理器底部是可见的。“S.E.P.”封装应用于早期的242根金手指的Intel Celeron 处理器。 PLGA封装 PLGA是Plastic Land Grid Array的缩写,即塑料焊盘栅格阵列封装。由于没有使用针脚,而是使用了细小的点式接口,所以PLGA封装明显比以前的FC-PGA2等封装具有更小的体积、更少的信号传输损失和更低的生产成本,可以有效提升处理器的信号强度、提升处理器频率,同时也可以提高处理器生产的良品率、降低生产成本。目前Intel公司Socket 775接口的CPU采用了此封装。 CuPGA封装 CuPGA是Lidded Ceramic Package Grid Array的缩写,即有盖陶瓷栅格阵列封装。其与普通陶瓷封装最大的区别是增加了一个顶盖,能提供更好的散热性能以及能保护CPU核心免受损坏。目前AMD64系列CPU采用了此封装。 什么是TDP功耗 TDP的英文全称是“Thermal Design Power”,中文翻译为“热设计功耗”,是反应一颗处理器热量释放的指标,它的含义是当处理器达到负荷最大的时候,释放出的热量,单位为瓦(W)。 CPU的TDP功耗并不是CPU的真正功耗。功耗(功率)是CPU的重要物理参数, 根据电路的基本原理,功率(P),电流(A)×电压(V)。所以,CPU的功耗(功率)等于流经处理器核心的电流值与该处理器上的核心电压值的乘积。而TDP是指CPU电流热效应以及其他形式产生的热能,他们均以热的形式释放。显然CPU的TDP小于CPU功耗。换句话说,CPU的功耗很大程度上是对主板提出的要求,要求主板能够提供相应的电压和电流;而TDP是对散热系统提出要求,要求散热系统能够把CPU发出的热量散掉,也就是说TDP功耗是要求CPU的散热系统必须能够驱散的最大总热量。 现在CPU厂商越来越重视CPU的功耗,因此人们希望TDP功耗越小越好,越小说明CPU发热量小,散热也越容易,对于笔记本来说,电池的使用时间也越长。Intel和AMD对TDP功耗的含义并不完全相同。AMD的的CPU集成了内存控制器,相当于把北桥的部分发热量移到CPU上了,因此两个公司的TDP值不是在同一个基础上,不能单纯从数字上比较。另外,TDP值也不能完全反映CPU的实际发热量,因为现在的CPU都有节能技术,实际发热量显然还要受节能技术的影响,节能技术越有效,实际发热量越小。 TDP功耗可以大致反映出CPU的发热情况,实际上,制约CPU发展的一个重要问题就是散热问题。温度可以说是CPU的杀手,显然发热量低的CPU设计有望达到更高的工作频率,并且在整套计算机系统的设计、电池使用时间乃至环保方面都是大有裨益。目前的台式机CPU,TDP功耗超过100W基本是不可取的,比较理想的数值是低于50W。 什么是制作工艺 通常我们所说的CPU的“制作工艺”指得是在生产CPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以微米(长度单位,1微米等于千分之一毫米)来表示,未来有向纳米(1纳米等于千分之一微米)发展的趋势,精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高CPU的集成度,CPU的功耗也越小。 制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、 功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、90纳米一直发展到目前最新的65纳米,而45纳米和30纳米的制造工艺将是下一代CPU的发展目标。 提高处理器的制造工艺具有重大的意义,因为更先进的制造工艺会在CPU内部集成更多的晶体管,使处理器实现更多的功能和更高的性能;更先进的制造工艺会使处理器的核心面积进一步减小,也就是说在相同面积的晶圆上可以制造出更多的CPU产品,直接降低了CPU的产品成本,从而最终会降低CPU的销售价格使广大消费者得利;更先进的制造工艺还会减少处理器的功耗,从而减少其发热量,解决处理器性能提升的障碍.....处理器自身的发展历史也充分的说明了这一点,先进的制造工艺使CPU的性能和功能一直增强,而价格则一直下滑,也使得电脑从以前大多数人可望而不可及的奢侈品变成了现在所有人的日常消费品和生活必需品。 什么是酷睿 “酷睿”是一款领先节能的新型微架构,设计的出发点是提供卓然出众的性能和能效,提高每瓦特性能,也就是所谓的能效比。早期的酷睿是基于笔记本处理器的。 酷睿2:英文Core 2 Duo,是英特尔推出的新一代基于Core微架构的产品体系统称之一。于2006年7月27日发布。酷睿2,是一个跨平台的构架体系,包括服务器版、桌面版、移动版三大领域。其中,服务器版的开发代号为Woodcrest,桌面版的开发代号为Conroe,移动版的开发代号为Merom。 特性: 全新的Core架构 全部采用65nm制造工艺 全线产品为单核心,双核心, 四核心,目前为止L2缓存容量存在2MB和4MB两个版本,上市时曾出现过2MB缓存容量 性能提升40% 能耗降低40%,主流产品的平均能耗为65瓦特 前端总线提升至1066Mhz(Conroe),1333Mhz(Woodcrest),667Mhz(Merom) 服务器类Woodcrest为开发代号,实际的产品名称为Xeon 5100系列。 采用LGA771接口。 Xeon 5100系列包含两种FSB的产品规格(5110采用1066 MHz,5130采用1333 MHz)。拥有两个处理核心和4MB共享式二级缓存,平均功耗为65W,最大仅为80W,较AMD的Opteron的95W功耗很具优势。 台式机类Conroe处理器分为普通版和至尊版两种,产品线包括E6000系列和E4000系列,两者的主要差别为FSB频率不同。 普通版E6000系列处理器主频从1.8GHz到2.67GHz,频率虽低,但由于优秀的核心架构,Conroe处理器的性能表现优秀。此外,Conroe处理器还支持Intel的VT、EIST、EM64T和XD技术,并加入了Sup-SSE3指令集,也是常说的SSSE3指令集。由于Core的高效架构,Conroe不再提供对HT的支持。 CPU接口类型 CPU接口类型:CPU需要通过某个接口与主板连接的才能进行工作。CPU经过这么多年的发展,采用的接口方式有引脚式、卡式、触点式、针脚式等。而目前CPU的接口都是针 脚式接口,对应到主板上就有相应的插槽类型。CPU接口类型不同,在插孔数、体积、形状都有变化,所以不能互相接插。 CPU接口:Socket AM2 Socket AM2是2006年5月底发布的支持DDR2内存的AMD64位桌面CPU的接口标准,具有940根CPU针脚,支持双通道DDR2内存。虽然同样都具有940根CPU针脚,但Socket AM2与原有的Socket 940在针脚定义以及针脚排列方面都不相同,并不能互相兼容。目前采用Socket AM2接口的有低端的Sempron、中端的Athlon 64、高端的Athlon 64 X2以及顶级的Athlon 64 FX等全系列AMD桌面CPU,支持200MHz外频和1000MHz的HyperTransport总线频率,支持双通道DDR2内存,其中Athlon 64 X2以及Athlon 64 FX最高支持DDR2 800,Sempron和Athlon 64最高支持DDR2 667。。按照AMD的规划,Socket AM2接口将逐渐取代原有的Socket 754接口和Socket 939接口,从而实现桌面平台CPU接口的统一。 CPU接口:Socket S1 Socket S1是2006年5月底发布的支持DDR2内存的AMD64位移动CPU的接口标准,具有638根CPU针脚,支持双通道DDR2内存,这是与只支持单通道DDR内存的移动平台原有的Socket 754接口的最大区别。目前采用Socket S1接口的有低端的Mobile Sempron和高端的Turion 64 X2。按照AMD的规划,Socket S1接口将逐渐取代原有的Socket 754接口从而成为AMD移动平台的标准CPU接口。 CPU接口:Socket F Socket F是AMD于2006年第三季度发布的支持DDR2内存的AMD服务器/工作站CPU的接口标准,首先采用此接口的是Santa Rosa核心的LGA封装的Opteron。与以前的Socket 940接口CPU明显不同,Socket F与Intel的Socket 775和Socket 771倒是基本类似。Socket F接口CPU的底部没有传统的针脚,而代之以1207个触点,即并非针脚式而是触点式,通过与对应的Socket F插槽内的1207根触针接触来传输信号。Socket F接口不仅能够有效提升处理器的信号强度、提升处理器频率,同时也可以提高处理器生产的 良品率、降低生产成本。Socket F接口的Opteron也是AMD首次采用LGA封装,支持ECC DDR2内存。按照AMD的规划,Socket F接口将逐渐取代Socket 940接口。 CPU接口:Socket 771 Socket 771是Intel2005年底发布的双路服务器/工作站CPU的接口标准,目前采用此接口的有采用LGA封装的Dempsey核心的Xeon 5000系列和Woodcrest核心的Xeon 5100系列。与以前的Socket 603和Socket 604明显不同,Socket 771与桌面平台的Socket 775倒还基本类似,Socket 771接口CPU的底部没有传统的针脚,而代之以771个触点,即并非针脚式而是触点式,通过与对应的Socket 771插槽内的771根触针接触来传输信号。Socket 771接口不仅能够有效提升处理器的信号强度、提升处理器频率,同时也可以提高处理器生产的良品率、降低生产成本。Socket 771接口的CPU全部都采用LGA封装。按照Intel的规划,除了Xeon MP仍然采用Socket 604接口之外,Socket 771接口将取代双路Xeon(即Xeon DP)目前所采用的Socket 603接口和Socket 604接口。 CPU接口:Socket 479 Socket 479的用途比较专业,是2003年3月发布的Intel移动平台处理器的专用接口,具有479根CPU针脚,采用此接口的有Celeron M系列(不包括Yonah核心)和Pentium M系列,而此两大系列CPU已经面临被淘汰的命运。Yonah核心的Core Duo、Core Solo和Celeron M已经改用了不兼容于旧版Socket 478的新版Socket 478接口。 CPU接口:Socket 478 最初的Socket 478接口是早期Pentium 4系列处理器所采用的接口类型,针脚数为478针。Socket 478的Pentium 4处理器面积很小,其针脚排列极为紧密。英特尔公司的Pentium 4系列和P4 赛扬系列都采用此接口,目前这种CPU已经逐步退出市场。 但是,Intel于2006年初推出了一种全新的Socket 478接口,这种接口是目前Intel公司采用Core架构的处理器Core Duo和Core Solo的专用接口,与早期桌面版Pentium 4系列的Socket 478接口相比,虽然针脚数同为478根,但是其针脚定义以及电压等重要参数完全不相同,所以二者之间并不能互相兼容。随着Intel公司的处理器全面向Core架 构转移,今后采用新Socket 478接口的处理器将会越来越多,例如即将推出的Core架构的Celeron M也会采用此接口。 CPU接口:Socket 775(LGA775) Socket 775又称为Socket T,是目前应用于Intel LGA775封装的CPU所对应的接口,目前采用此种接口的有LGA775封装的单核心的Pentium 4、Pentium 4 EE、Celeron D以及双核心的Pentium D和Pentium EE等CPU。与以前的Socket 478接口CPU不同,Socket 775接口CPU的底部没有传统的针脚,而代之以775个触点,即并非针脚式而是触点式,通过与对应的Socket 775插槽内的775根触针接触来传输信号。Socket 775接口不仅能够有效提升处理器的信号强度、提升处理器频率,同时也可以提高处理器生产的良品率、降低生产成本。随着Socket 478的逐渐淡出,Socket 775已经成为Intel桌面CPU的标准接口。 CPU接口:Socket 754 Socket 754是2003年9月AMD64位桌面平台最初发布时的CPU接口,具有754根CPU针脚,只支持单通道DDR内存。目前采用此接口的有面向桌面平台的Athlon 64的低端型号和Sempron的高端型号,以及面向移动平台的Mobile Sempron、Mobile Athlon 64以及Turion 64。随着AMD从2006年开始全面转向支持DDR2内存,桌面平台的Socket 754将逐渐被Socket AM2所取代从而使AMD的桌面处理器接口走向统一,而与此同时移动平台的Socket 754也将逐渐被具有638根CPU针脚、支持双通道DDR2内存的Socket S1所取代。Socket 754在2007年底完成自己的历史使命从而被淘汰,其寿命反而要比一度号称要取代自己的Socket 939要长得多。 CPU接口:Socket 939 Socket 939是AMD公司2004年6月才推出的64位桌面平台接口标准,具有939根CPU针脚,支持双通道DDR内存。目前采用此接口的有面向入门级服务器/工作站市场的Opteron 1XX系列以及面向桌面市场的Athlon 64以及Athlon 64 FX和Athlon 64 X2,除此之外部分专供OEM厂商的Sempron也采用了Socket 939接口。Socket 939处理器 和与过去的Socket 940插槽是不能混插的,但是Socket 939仍然使用了相同的CPU风扇系统模式。随着AMD从2006年开始全面转向支持DDR2内存,Socket 939被Socket AM2所取代,在2007年初完成自己的历史使命从而被淘汰,从推出到被淘汰其寿命还不到3年。 CPU接口:Socket 940 Socket 940是最早发布的AMD64位CPU的接口标准,具有940根CPU针脚,支持双通道ECC DDR内存。目前采用此接口的有服务器/工作站所使用的Opteron以及最初的Athlon 64 FX。随着新出的Athlon 64 FX以及部分Opteron 1XX系列改用Socket 939接口,所以Socket 940已经成为了Opteron 2XX全系列和Opteron 8XX全系列以及部分Opteron 1XX系列的专用接口。随着AMD从2006年开始全面转向支持DDR2内存,Socket 940也会逐渐被Socket F所取代,完成自己的历史使命从而被淘汰。 CPU接口:Socket 603 Socket 603的用途比较专业,应用于Intel方面高端的服务器/工作站平台,采用此接口的CPU是Xeon MP和早期的Xeon,具有603根CPU针脚。Socket 603接口的CPU可以兼容于Socket 604插槽。 CPU接口:Socket 604 与Socket 603相仿,Socket 604仍然是应用于Intel方面高端的服务器/工作站平台,采用此接口的CPU是533MHz和800MHz FSB的Xeon。Socket 604接口的CPU不能兼容于Socket 603插槽。 二级缓存容量 CPU缓存(Cache Memoney)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存) 就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。 缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。 正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。 最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(I-Cache)和指令缓存(D-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,还新增了一种一级追踪缓存,容量为12KB。 随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。 二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存 容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。 CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。 为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。 CPU产品中,一级缓存的容量基本在4KB到18KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。 双核心CPU的二级缓存比较特殊,和以前的单核心CPU相比,最重要的就是两个内核的缓存所保存的数据要保持一致,否则就会出现错误,为了解决这个问题不同的CPU使用了不同的办法: Intel双核心处理器的二级缓存 目前Intel的双核心CPU主要有Pentium D、Pentium EE、Core Duo三种,其中Pentium D、Pentium EE的二级缓存方式完全相同。Pentium D和Pentium EE的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,8xx系列的Smithfield核心CPU为每核心1MB,而9xx系列的Presler核心CPU为每核心2MB。这种CPU内部的两个内核之间的缓存数据同步是依靠位于主板北桥芯片上的仲裁单元通过前端总线在两个核心之间传输来实现的,所以其数据延迟问题比较严重,性能并不尽如人意。 Core Duo使用的核心为Yonah,它的二级缓存则是两个核心共享2MB的二级缓存,共享式的二级缓存配合Intel的“Smart cache”共享缓存技术,实现了真正意义上的缓存数据同步,大幅度降低了数据延迟,减少了对前端总线的占用,性能表现不错,是目前双核心处理器上最先进的二级缓存架构。今后Intel的双核心处理器的二级缓存都会采用这种两个内核共享二级缓存的“Smart cache”共享缓存技术。 AMD双核心处理器的二级缓存 Athlon 64 X2 CPU的核心主要有Manchester和Toledo两种,他们的二级缓存都是CPU内部两个内核具有互相独立的二级缓存,其中,Manchester核心为每核心512KB,而Toledo核心为每核心1MB。处理器内部的两个内核之间的缓存数据同步是依靠CPU内置的System Request Interface(系统请求接口,SRI)控制,传输在CPU内部即可实现。这样一来,不但CPU资源占用很小,而且不必占用内存总线资源,数据延迟也比Intel的Smithfield核心和Presler核心大为减少,协作效率明显胜过这两种核心。不过,由于这种方式仍然是两个内核的缓存相互独立,从架构上来看也明显不如以Yonah核心为代表的Intel的共享缓存技术Smart Cache。 什么是CPU外频 什么是CPU外频, 外频是CPU乃至整个计算机系统的基准频率,单位是MHz(兆赫兹)。在早期的电脑中,内存与主板之间的同步运行的速度等于外频,在这种方式下,可以理解为CPU外频直接与内存相连通,实现两者间的同步运行状态。对于目前的计算机系统来说,两者完全可以不相同,但是外频的意义仍然存在,计算机系统中大多数的频率都是在外频的基础上,乘以一定的倍数来实现,这个倍数可以是大于1的,也可以是小于1的。 说到处理器外频,就要提到与之密切相关的两个概念:倍频与主频,主频就是CPU的时钟频率;倍频即主频与外频之比的倍数。主频、外频、倍频,其关系式:主频,外频×倍频。 在486之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。倍频技术就是使外部设备可以工作在一个较低外频上,而CPU主频是外频的倍数。 在Pentium时代,CPU的外频一般是60/66MHz,从Pentium ? 350开始,CPU外频提高到100MHz,目前CPU外频已经达到了200MHz。由于正常情况下外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高电脑整体运行速度影响较大。 外频与前端总线(FSB)频率很容易被混为一谈。前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚 出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。 一个CPU默认的外频只有一个,主板必须能支持这个外频。因此在选购主板和CPU时必须注意这点,如果两者不匹配,系统就无法工作。此外,现在CPU的倍频很多已经被锁定,所以超频时经常需要超外频。外频改变后系统很多其他频率也会改变,除了CPU主频外,前端总线频率、PCI等各种接口频率,包括硬盘接口的频率都会改变,都可能造成系统无法正常运行。当然有些主板可以提供锁定各种接口频率的功能,对成功超频有很大帮助。超频有风险,甚至会损坏计算机硬件。 什么是CPU主频 在电子技术中,脉冲信号是一个按一定电压幅度,一定时间间隔连续发出的脉冲信号。脉冲信号之间的时间间隔称为周期;而将在单位时间(如1秒)内所产生的脉冲个数称为频率。频率是描述周期性循环信号(包括脉冲信号)在单位时间内所出现的脉冲数量多少的计量名称;频率的标准计量单位是Hz(赫)。电脑中的系统时钟就是一个典型的频率相当精确和稳定的脉冲信号发生器。频率在数学表达式中用“f”表示,其相应的单位有:Hz(赫)、kHz(千赫)、MHz(兆赫)、GHz(吉赫)。其中1GHz=1000MHz,1MHz=1000kHz,1kHz=1000Hz。计算脉冲信号周期的时间单位及相应的换算关系是:s(秒)、ms(毫秒)、μs(微秒)、ns(纳秒),其中:1s=1000ms,1 ms=1000μs,1μs=1000ns。 CPU的主频,即CPU内核工作的时钟频率(CPU Clock Speed)。通常所说的某某CPU是多少兆赫的,而这个多少兆赫就是“CPU的主频”。很多人认为CPU的主频就是其运行速度,其实不然。CPU的主频表示在CPU内数字脉冲信号震荡的速度,与CPU实际的运算能力并没有直接关系。主频和实际的运算速度存在一定的关系,但目前还没有一个确定的公式能够定量两者的数值关系,因为CPU的运算速度还要看CPU的流水线的各方面的 性能指标(缓存、指令集,CPU的位数等等)。由于主频并不直接代表运算速度,所以在一定情况下,很可能会出现主频较高的CPU实际运算速度较低的现象。比如AMD公司的AthlonXP系列CPU大多都能已较低的主频,达到英特尔公司的Pentium 4系列CPU较高主频的CPU性能,所以AthlonXP系列CPU才以PR值的方式来命名。因此主频仅是CPU性能表现的一个方面,而不代表CPU的整体性能。 CPU的主频不代表CPU的速度,但提高主频对于提高CPU运算速度却是至关重要的。举个例子来说,假设某个CPU在一个时钟周期内执行一条运算指令,那么当CPU运行在100MHz主频时,将比它运行在50MHz主频时速度快一倍。因为100MHz的时钟周期比50MHz的时钟周期占用时间减少了一半,也就是工作在100MHz主频的CPU执行一条运算指令所需时间仅为10ns比工作在50MHz主频时的20ns缩短了一半,自然运算速度也就快了一倍。只不过电脑的整体运行速度不仅取决于CPU运算速度,还与其它各分系统的运行情况有关,只有在提高主频的同时,各分系统运行速度和各分系统之间的数据传输速度都能得到提高后,电脑整体的运行速度才能真正得到提高。 提高CPU工作主频主要受到生产工艺的限制。由于CPU是在半导体硅片上制造的,在硅片上的元件之间需要导线进行联接,由于在高频状态下要求导线越细越短越好,这样才能减小导线分布电容等杂散干扰以保证CPU运算正确。因此制造工艺的限制,是CPU主频发展的最大障碍之一。 什么是前端总线 什么是总线, 微机中总线一般有内部总线、系统总线和外部总线。内部总线是微机内部各外围芯片与处理器之间的总线,用于芯片一级的互连;而系统总线是微机中各插件板与系统板之间的总线,用于插件板一级的互连;外部总线则是微机和外部设备之间的总线,微机作为一种设备,通过该总线和其他设备进行信息与数据交换,它用于设备一级的互连。 什么是前端总线: “前端总线”这个名称是由AMD在推出K7 CPU时提出的概念,但是一直以来都被大家 误认为这个名词不过是外频的另一个名称。我们所说的外频指的是CPU与主板连接的速度,这个概念是建立在数字脉冲信号震荡速度基础之上的,而前端总线的速度指的是数据传输的速度,由于数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽,(总线频率×数据位宽)?8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz、1066MHz、1333MHz几种,前端总线频率越大,代表着CPU与内存之间的数据传输量越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU。较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。 前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。选购主板和CPU时,要注意两者搭配问题,一般来说,如果CPU不超频,那么前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作。也就是说,需要主板和CPU都支持某个前端总线,系统才能工作,只不过一个CPU默认的前端总线是唯一的,因此看一个系统的前端总线主要看CPU就可以。 北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽,(总线频率×数据位宽)?8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。显然同等条件下,前端总线越快,系统性能越好。 外频与前端总线频率的区别: 前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一千万次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit=6400Mbit/s=800MByte/s(1Byte=8bit)。
/
本文档为【电脑diy知识】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索