当前位置:uu11.cc > 电子科技 >

这18条背下来没人敢和你忽悠CPU

发布时间:2017-12-03 阅读:

  没有人敢用这18个骨干回到你身边

  1.主频也叫时钟频率,单位是MHz,用来表示CPU的速度。 CPU频率= FSB×乘数。很多人认为占主导地位的频率决定了CPU的速度,这不仅是片面的,而且对于服务器来说,这种理解也有所偏差。到目前为止,还没有一定的公式能够达到两者之间的频率和实际速度的数值关系,即使英特尔和AMD这两大处理器厂商在这方面存在较大争议,我们从英特尔产品趋势来看,我们可以看出英特尔非常注重加强其频率发展。像其他处理器厂商一样,有些人拿1G的Transmeta做比较,其运行效率相当于2G的英特尔处理器。因此,CPU频率和实际的CPU运算能力与数字脉冲信号振荡的CPU速度中的主频率没有直接关系。在英特尔处理器产品中,我们也可以看到一个例子:1 GHz安腾芯片的性能可以达到2.66 GHz Xeon / Opteron,或1.5 GHz安腾2的性能与4 GHz Xeon / Opteron的性能相当。 CPU速度取决于各个方面的CPU流水线性能指标。当然,操作的频率和实际速度是有关系的,只能说时钟速度只是CPU性能的一个方面,而不代表CPU的整体性能。 2. FSB FSB是CPU的参考频率,单位也是MHz。CPU FSB决定了整个主板的速度。说白了,在桌面上,我们讲的是超频,是超CPU的FSB当然,在正常情况下,CPU倍频都是锁定的)相信是很好理解的,但是对于服务器CPU来说,绝对不允许超频,在CPU决定主板速度之前,两者同时运行,如果服务器CPU超频,换了外频,都会有异步操作,(很多台式机支持异步操作)这样会导致整个服务器系统不稳定。外频中的绝大多数计算机系统是内存的速度和主板之间的同步,这样,可以理解为CPU外频直接与内存之间的连接实现了运行状态之间的同步。外频和外频的频率很容易被混淆,下面的前端总线介绍我们谈论两者的区别。 3. FSB频率FSB频率(即总线频率)直接影响CPU和存储器的直接数据交换速度。有一个计算数据带宽=(总线频率×数据带宽)/ 8的公式,数据传输的最大带宽取决于所有同时传输数据的宽度和传输频率。例如,Xeon Nocona现在支持64位,前端总线是800MHz,根据公式,它的数据传输最大带宽是6.4GB /秒。FSB和FSB频率差别:FSB速度是指数据传输外频是CPU与主板之间的同步速度,换句话说,100MHz前端总线是指数字脉冲信号每秒震动千万次;而100MHz前端总线是指CPU每秒可接受的数据传输速率是100MHz×64bit÷8Byte / bit = 800MB / s实际上,“HyperTransport”体系结构的出现改变了FSB频率,在我们知道IA-32体系结构必须有三个主要组件:内存控制器集线器(MCH),I / O控制器集线器和PCI集线器,像英特尔的典型芯片组英特尔7501,英特尔7505芯片组,处理器是量身定制的,他们包括的MCH提供CPU前端总线533MHz和DDR内存与前端巴士禁令dGB为4.3GB /秒。但是,随着处理器性能的不断提高,这也给系统架构带来了许多问题。 “超传输”架构不仅解决了这个问题,而且还提高了总线带宽。例如,AMD Opteron处理器和灵活的HyperTransport I / O总线架构使其能够集成存储器控制器,使处理器不会通过系统总线到芯片组并直接交换数据和内存。在这种情况下,FSB频率不知道AMD Opteron处理器从哪里开始。 4,CPU位和字位:在数字电路和计算机技术二进制中,代码只有“0”和“1”,其中CPU中的“0”或“1”是“位”。字长:计算机技术在CPU单位时间内(同时)可以处理一个称为字长的二进制数位数字。所以可以处理8字节的数据的字长通常称为8位CPU。同样,32位CPU可以在单位时间内处理32位二进制数据。字节和字长的区别:由于常用的英文字符可以用8位二进制表示,所以通常8位将被称为字节。字长的长度不固定,对于不同的CPU,字长不一样。 8位CPU一次只能处理一个字节,而32位CPU一次可处理4个字节,同理字长64位CPU一次可处理8个字节。 5.倍增因子倍增因子是指CPU频率与外频之间的相对比例。在同一个FSB中,CPU频率越高的频率越高。但事实上,在相同FSB的前提下,高频CPU本身并不重要。这是因为CPU与系统之间的数据传输速度有限,一味追求高频率和高频率的CPU会产生明显的“瓶颈”效应 - CPU从系统中获取数据的最大速度不能满足CPU的运算速度。一般除了英特尔CPU的工程样本版本都是锁定倍频,而AMD之前没有锁定过。6.缓存的缓存大小是CPU的重要指标之一,而且缓存CPU的结构和大小的速度也是非常的大,CPU的缓存工作频率高,而且处理器的频率操作通常是一样的,工作效率远远大于系统内存和硬盘。实际工作中,CPU往往需要反复读取同一个数据块,并增加缓存容量可以显着提高CPU内部读取数据的命中率,而不必去内存或硬盘上查找,以提高系统性能,但由于CPU芯片尺寸和成本考虑,缓存很小。 Cache(一级缓存)是CPU缓存的第一级,分为数据缓存和指令缓存,内置的一级缓存的容量和结构对CPU的性能有显着的影响,但缓存是由静态RAM组成,结构比较复杂,L1缓存级容量不大,在CPU死亡面积不大的情况下可能会做得太多。平均服务器L1缓存L1的容量为32-256KB。二级缓存(second-level cache)是CPU的二级缓存,内部和外部的芯片,内部芯片二级缓存运行速度相同,外部二级缓存只有一半时钟速度。也会影响到CPU的性能,原则是越大越好,现在最大的家庭使用的CPU容量是512KB,而服务器和工作站的CPU二级缓存高达256-1MB,有的高达2MB或3MB。三级缓存(L3 cache)分为两种,早期是外置的,现在都是内置的。其实际效果是,三级缓存应用可以进一步减少内存延迟,同时提高大容量数据处理器的性能。减少内存延迟和提高游戏上海量数据的计算是有帮助的,而在服务器领域增加三级缓存的性能仍然有明显的提高,例如一个配置较大的三级缓存会更有效率,使用物理记忆,所以它会比较慢的磁盘I / O子系统发送更多的数据请求。具有较大L3缓存的处理器可提供更高效的文件系统缓存行为以及更短的消息和处理器队列长度。实际上,最早的L3缓存曾被用在AMD发布的K6-III处理器上,L3缓存受制造工艺的限制,并没有集成到芯片中,而是集成在主板上。仅能够与系统总线频率同步的L3缓存与主存储器没有多大差别。后来三级缓存是英特尔面向服务器市场的安腾处理器,接下来是P4EE和Xeon MP,英特尔还计划推出一款带有9MB三级缓存的Itanium2处理器和一款带24MB三级缓存的双核Itanium2处理器。但基本上三级缓存的性能对处理器来说并不是很重要,比如至强MP处理器与1MB三级缓存仍然不是Opteron的对手,我们可以看到前端总线的增加比缓存的增加带来更有效的性能提升。 7. CPU扩展指令集CPU依靠指令来计算和控制系统,每个CPU都设计有一系列与其硬件电路兼容的指令集,指令的强度也是CPU的一个重要指标,指令集是提高微处理器效率的最有效的工具之一,从目前主流的体系结构来看,指令集可分为复杂指令集和st重置指令集分为两部分,从具体的使用方面来看,如Intel的MMX(多媒体扩展),SSE,SSE2(Streaming-Single指令多数据 - 扩展2),SEE3和AMD的3DNow!是CPU的指令集的扩展,分别增强了CPU的多媒体,图形和Internet处理能力。我们通常将CPU的扩展指令集称为CPU的指令集。 SSE3指令集也是最小的指令集,MMX包含57条指令后,SSE包含50条指令,SSE2包含144条指令,SSE3包含13条指令。目前SSE3也是最先进的指令集,英特尔Prescott处理器已经支持SSE3指令集,AMD将在未来的双核处理器中支持SSE3指令集,这也将被所有的MTA处理器支持。 8. CPU核心和I / O工作电压从586CPU开始,CPU工作电压分为核心电压和I / O电压两种,通常CPU核心电压小于或等于I / O电压。其中核心电压的大小是以CPU生产过程为依据的,一般生产工艺越小,核心的工作电压越低; I / O电压一般为1.6〜5V。低电压可以解决功耗过大和过热的问题。 9.制造工艺制造工艺微米是指IC电路和电路之间的距离。制造过程的趋势是向着更高的发展方向发展。较高密度的IC设计意味着在相同尺寸的IC中可以找到更高密度和更复杂的电路设计。现在主要有180nm,130nm,90nm。最近官方已经表示有65nm的制造工艺。 10.指令集(1)CISC指令集CISC指令集,又称复杂指令集,英文名称为CISC(Complex Instruction Set Computer简称)。在CISC微处理器中,程序的指令是按顺序和串行执行的,每个指令的操作顺序和串行地执行。顺序执行的优点是控制简单,但是计算机各部分的利用率不高,执行速度慢。实际上,它是由Intel x86系列(即IA-32架构)CPU及其兼容的CPU,如AMD,VIA等生产的。即使现在新的X86-64(也被称为AMD64)都是CISC类别。要知道什么是指令集,而且从今天的X86体系结构CPU说起,X86指令集是Intel为其第一个16位CPU(i8086)专门开发的,世界上的CPU-i8088(i8086 Compact) IBM在1981年推出的首款x86 PC也采用了X86指令,增加了浮点数据处理能力,增加了X87芯片,X86指令集和X87指令集将统称为X86指令集。虽然随着CPU技术的不断发展,英特尔开发了更新的i80386,i80486,直到过去的PII至强,PIII至强,奔腾3,最后到今天的奔腾4系列至强(不包括Xeon Nocona),但为了保证即电脑可以继续运行以前开发的各种应用程序来保护和继承丰富的软件资源,英特尔生产的所有CPU仍然继续使用X86指令集,所以其CPU仍然属于X86系列。由于Intel X86系列及其兼容的CPU(如AMD Athlon MP)使用X86指令集,因此它们构成了当今大规模X86系列和兼容CPU的骨干。 x86 CPU目前主要有intel服务器CPU和AMD服务器CPU两大类。 (2)RISC指令集RISC是英文缩写指令集计算的缩写,中文意思是“精简指令集”。它是在CISC指挥系统的基础上发展起来的。有人对CISC机器进行测试,发现各种指令的使用频率比较差,最常用的指令是相对简单的指令,仅占指令总数的20%。但是,程序中发生的频率占了80%。复杂的指令系统必然会增加微处理器的复杂度,处理器开发时间长,成本高。复杂的指令和复杂的操作,将不可避免地降低计算机的速度。由于上述原因,RISC型CPU诞生于20世纪80年代。与CISC型CPU相比,RISC型CPU不仅简化了指令集,还采用了“超标量和超流水线架构”技术,大大提高了并行处理能力。 RISC指令集是高性能CPU的发展方向。这与传统的CISC(复杂指令集)相反。相比之下,RISC指令格式是统一的,类型较少,寻址较不复杂的指令集。当然,处理速度提高了很多。目前在高端服务器中一般都使用这个指令系统的CPU,特别是高端服务器都是使用CPU系统的RISC指令。 RISC命令体系更适合于UNIX的高端服务器操作系统,Linux也是一个类UNIX操作系统。在软件和硬件方面,RISC型CPU不兼容Intel和AMD CPU。目前,在高端服务器中使用RISC指令的CPU有以下几类:PowerPC处理器,SPARC处理器,PA-RISC处理器,MIPS处理器,Alpha处理器。 (3)关于IA-64 EPIC(显式并行指令计算机)是RISC和CISC系统的后继者的辩论变得更具争议性。在EPIC系统的情况下,更像是英特尔处理器向RISC系统迈进的重要步骤。理论上,EPIC系统设计CPU在相同的主机配置下处理Windows应用程序,而不是基于Unix的应用程序英特尔EPIC技术的服务器CPU是Itanium Itanium(代号Merced)。这是一款64位处理器,也是IA-64系列中的第一款。微软还开发了一个代号为Win64的操作系统,它在软件上得到支持。英特尔推出X86指令集后,转向更先进的64位微处理器。英特尔这样做是因为他们想要摆脱庞大的x86架构,引入精力充沛的强大指令集,所以使用EPIC指令集IA-64架构诞生了。 IA-64在很多方面都比x86有了很大的进步。它突破了传统IA32架构的诸多限制,实现了数据处理能力,系统稳定性,安全性,可用性和可观察性等方面的突破。 IA-64微处理器最大的缺陷是它们缺乏x86兼容性,英特尔在IA-64处理器上的IA-64处理器(Itanium,Itanium2 ...)的两个朝代运行得更好。引入了x86-to-IA- 64解码器,它将x86指令转换为IA-64指令,这种解码器不是最有效的解码器,也不是运行x86代码的最佳方式(最好的办法是直接在x86处理器上运行x86代码),所以Itanium和(4)X86-64(AMD64 / EM64T)AMD在设计64位整数运算的同时,兼容于AMD公司的X86-64(AMD64 / EM64T) X86-32架构,支持64位逻辑寻址,同时提供32位寻址选项;但是,数据操作指令默认为32位和8位,提供转换为64位和16位的选项;支持通用寄存器,32位,有必要扩大结果进入一个完整的64位。这样,指令就有了“直接执行”和“转换执行”的区别。指令字段为8位或32位,以避免字段过长。 x86-64(也称为AMD64)的生产也不是没有根据的。 x86处理器的32位寻址空间限制在4GB内存,而IA-64处理器与x86不兼容,AMD充分考虑客户的需求,增强了x86指令集的功能,使指令集支持AMD在x86-64架构上采用64位计算技术,在技术上,AMD推出了新的R8-R15通用寄存器,作为原有X86处理器寄存器的扩展,但是在32位环境下还没有完成使用这些寄存器,原来的EAX,EBX寄存器也从32位扩展到64位,在SSE单元中增加了8个新的寄存器来支持SSE2,增加了寄存器的数量会带来性能的提升,同时x86-64架构允许处理器以长模式和传统模式两种模式运行,以支持32位和64位代码和寄存器。模式是subdi分成两种模式(64位模式和兼容模式兼容模式)。该标准已经在AMD服务器处理器的Opteron处理器中引入。而且今年还推出了64位的EM64T技术,这个技术在IA32E之前还没有正式名为EM64T,这是英特尔用来区分X86指令集的64位扩展技术的名称,英特尔的EM64T支持与AMD的X86-64技术一样,64位子模式使用64位线性平面寻址,增加了8个新的通用寄存器(GPR),并增加了8个寄存器来支持SSE指令。 ,英特尔的64位技术将与IA32和IA32E兼容,并且只能在运行64位操作系统时与IA32E一起使用。 IA32E由两个子模式组成:64位子模式和32位子模式,与AMD64向后兼容。英特尔的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经增加了一些64位技术,Intel的Pentium 4E处理器也支持64位技术,应该说这两种处理器都是64位的微处理器架构,与x86 i但是在EM64T和AMD64之间还是有一些区别的。 AMD64处理器中的NX位在英特尔处理器中不可用。 11.超管道和超标量说明超管道和超标量管道(管道)的第一次认识。这条流水线是Intel首次在486芯片组上面亮相,流水线的工作方式就像工业生产中的一条流水线,在CPU中由5-6个不同的电路单元的功能组成一个指令处理流水线,然后一个X86指令被分成5〜6个步骤,然后由这些电路单元执行,这样就可以在一个CPU时钟周期内完成一条指令,从而提高了CPU的运行速度。四行,即指令预取,解码,执行,写回结果,浮点流分为八个水。超标量是通过多个内置流水线同时执行多个处理器,其本质是交换对于时空而言,超线是通过细化水,提高频率,使一台或多台机器在一个周期内完成操作,其实质是交换时间换空间,例如P entium 4管道达20级。流水线设计的阶段(阶段)越长,指令完成越快,以适应更高频率的CPU。但是流水线太长也带来了一些副作用,所以很可能会出现较高的CPU时钟速度,降低实际运行速度的现象,英特尔奔腾4出现了这种情况,虽然它的主频可以高达1.4G但其计算性能远不及AMD 1.2G Athlon或Pentium III。 12.封装CPU封装是利用特定的材料将CPU芯片或CPU模块固化以防止损坏的保护,一般封装的CPU必须交付给用户。 CPU的封装形式取决于CPU的安装和设备的集成设计,从大分类的角度来看,通常采用Socket Socket安装的CPU采用PGA(网格阵列)封装,而使用Slot x插槽的CPU则全部采用SEC(Single side junction盒)以包装的形式。现在有PLGA(Plastic Land Grid Array),OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日趋激烈,目前CPU封装技术的发展方向以成本为基础。同步多线程同时多线程,简称SMT。通过在处理器上复制结构状态,SMT使同一处理器上的多个线程可以同步执行并共享处理器的执行资源,从而最大限度地实现广泛的无序超标量处理,并增加处理器计算部件的利用内存延迟由于数据相关或缓存未命中。当不多于一个线程可用时,SMT处理器几乎与传统的宽发射超标量处理器相同。 SMT最吸引人的方面是只需要小规模改变处理器内核的设计,并且可以显着提高性能,几乎不需要额外的成本。多线程技术可以为更多的高速计算核心准备更多的数据处理来减少计算核心的空闲时间。这对台式机低端系统无疑是有吸引力的。英特尔从3.06GHz奔腾4开始,所有处理器将支持SMT技术。 14,多核多核,也指单芯片多处理器(Chip multiprocessors,简称CMP)。 CMP是由美国斯坦福大学提出的。其思想是将大规模并行处理器中的SMP(对称多处理器)集成到同一个芯片中,并且每个处理器并行执行不同的处理。与CMP相比,SMT处理器结构更加突出的灵活性。然而,当半导体工艺进入0.18微米时,线路延迟已经超过门延迟,需要通过分成许多更小的,更局部的基本单元结构来完成微处理器的设计。相比之下,由于CMP结构已经分成多个处理器内核进行设计,每个内核相对简单,有利于优化设计,因此更具有前景。目前,IBM的Power 4芯片和Sun的MAJC5200芯片均采用CMP结构。多核处理器可以在处理器内部共享高速缓存,以提高高速缓存利用率,同时简化多处理器系统的设计复杂性。 2005年下半年,英特尔和AMD的新处理器也将被整合到CMP架构中,代号为Montecito的全新Itanium处理器是双核心设计,至少有18MB片上缓存和90nm工艺技术,其设计对今天的芯片产业来说无疑是一个挑战。它的每个核心都有自己的L1,L2和L3缓存,其中包含约10亿个晶体管。 15. SMP SMP(对称多处理)对称多处理是指在一台计算机上组装一组处理器(多个CPU)并在CPU之间共享存储器子系统和总线结构的过程。采用这种技术,单个服务器系统可以同时运行多个处理器并共享内存和其他主机资源。像Double Xeon这就是我们所说的Path 2,这是对称处理器系统中最常见的一种(Xeon MP最多可支持四个,AMD Opteron最多可支持1-8个)。也有几十六条路。但是一般来说,SMP结构的机器扩展性很差,难以做到100多个多处理器,一般一般是8〜16,但这对大部分用户来说已经足够了。高性能服务器和工作站级主板架构中最常见的类UNIX系统可支持多达256个CPU。构建SMP系统的必要条件是:支持SMP的硬件,包括主板和CPU;启用S​​MP的系统平台以及启用SMP的应用程序。为了实现SMP系统的高效性能,操作系统必须支持诸如WINNT,LINUX和UNIX 32位操作系统等SMP系统。这是多任务和多线程的能力。多任务意味着操作系统可以使不同的CPU同时执行不同的任务。多线程意味着操作系统可以使不同的CPU并行执行相同的任务。要设置SMP系统,所选择的CPU要求很高,首先,CPU必须内置APIC(高级可编程中断控制器)单元。英特尔多处理规范的核心是使用高级可编程中断控制器(APIC);再次,相同的产品型号,相同型号的CPU核心,运行频率完全相同;最后尽可能相同产品的序列号,因为这两批生产的CPU作为双处理器操作,可能会出现CPU负担过重,而另外一点负担,无法使性能最大化,更糟糕的是很可能导致崩溃。十六,NUMA技术NUMA非均匀访问分布式共享存储技术,它由多个高速私有网络组成,由系统组成的独立节点连接,每个节点可以是单个CPU或SMP系统。在NUMA中,有几个需要操作系统和特殊软件支持的Cache的一致性解决方案。图2是一个Sequent NUMA系统的例子。有三个SMP模块通过高速专网连接组成一个节点,每个节点可以有12个CPU。像Sequent这样的系统最多可以有64个CPU或256个CPU。很明显,这是基于SMP,然后用NUMA技术来扩展,就是这两种技术的结合。 17.超出执行(Out-or-or-Execution)一种技术,CPU允许多个指令以非指定的顺序分别发送到相应的电路元件。这将根据电路单元的状态和每个指令可以事先执行的具体情况进行分析,指令将能够事先执行发送到相应的执行电路单元,其间指令不是按照执行的顺序,然后由重排单元对执行单元进行排序,结果按指令顺序排列。使用无序执行技术的目的是使CPU的内部电路满负荷运行,并相应地提高CPU的运行速度。科技:(分支)指令需要等待操作的结果,一般无条件分支只需要按顺序执行,而条件分支必须根据结果进行处理,然后决定是否原来的顺序。 18,CPU中的内部存储器控制器许多应用程序具有更复杂的读取模式(几乎是随机的,特别是当缓存命中是不可预知的时候),并且不能有效利用带宽。这种类型的典型应用是业务处理软件,即使CPU的特性(如乱序执行)也会受到内存延迟的限制。这样,CPU必须等待直到所需的数据被除数加载完成指令(无论数据来自CPU缓存还是主内存系统)。目前的低端系统的内存延迟约为120-150ns,CPU速度超过3GHz。一个内存请求可能浪费200-300个CPU周期。即使缓存命中率为99%,CPU也可能花费50%的时间等待内存请求的结束 - 例如,由于内存延迟。您可以看到Opteron的集成内存控制器的延迟要比芯片组对双通道DDR内存控制器的支持要低得多。英特尔还计划在处理器内部集成内存控制器,这导致北桥芯片将变得不那么重要。但改变处理器访问主内存的方式,有助于增加带宽,减少内存延迟并提高处理器性能

关键词: 电子科技