18CPU专业术语

1。主要频率


主频也叫时钟频率,单位是MHz,用来表达对cpu.cpu =倍外频运行速度;频率系数。很多人认为主要的频率决定了CPU的速度,这不仅是片面的,而且对于服务器,这种理解也有偏差。到目前为止,还没有一个确定的公式能够实现频率和两个实际速度之间的数值关系,甚至两处理器制造商英特尔和AMD,在这一点上有相当大的争议,我们从英特尔产品的发展趋势,可以看出,英特尔高度重视加强自身频率的发展一样。其他的处理器制造商,谁有快速1g全美达做更多,其效率相当于2G的英特尔处理器。


因此,CPU的主频不是CPU的实际计算能力直接相关,与主频的CPU的数字脉冲信号震荡的速度。在英特尔处理器的产品,我们也可以看到这样的例子:1 GHz Itanium芯片几乎可以作为2.66 GHz Xeon /皓龙一样快,或1.5 GHz Itanium 2,这是4 GHz Xeon / opteron.the CPU的运算速度取决于CPU的流水线的各方面的性能指标为快。


当然,主频率与实际运行速度有关。只能说主频率只是CPU性能的一个方面,而不是CPU的整体性能。


2。FSB


外频是CPU的基准频率,单位是mhz.cpu频率决定着主板的运行速度。无论如何,在桌面上,我们所说的超频,超CPU外频(当然,在一般情况下,CPU的倍频是锁定的)认为,这是一个很好的了解。但对于服务器CPU超频是绝对不允许的。在前面的CPU来说决定着主板的运行速度,两同步运行,如果服务器CPU超频,改变外频,会产生异步操作(桌面,很多主板支持异步操作),将导致整个服务器系统的不稳定。


目前大多数的计算机系统之间的同步操作是内存和主板的外频的速度,在这种方式下,可以理解为CPU的频率直接与内存相,以实现同步运行状态之间。外频和前端总线频率(FSB)容易混淆同时,我们的前端总线的区别。


三.前端总线(FSB)频率


前端总线频率(即总线频率)直接影响CPU与存储器之间直接数据交换的速度。可以计算出一个公式,即数据带宽=(总线频率乘以数据带宽)8。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率。例如,目前支持64位的Xeon Nocona,前端总线为800MHz,根据公式计算,这是6.4gb /秒的最大数据传输带宽。


FSB和FSB(FSB)频率的区别:前端总线指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,在100MHz的外频指的是数字脉冲信号每秒震动一千万次;和100MHz的前端总线是指数据传输量第二CPU可接受的是100mhztimes;64bitdivide;8byte /位= 800mb /。

事实上,现在hypertransport体系结构的出现,使前端总线(FSB)频率的实际意义已经发生了变化。之前我们知道IA-32架构必须有三个重要的部件:轮毂内存控制器(MCH),我 / O枢纽和PCI控制器芯片,intel7505芯片,英特尔集团7501英特尔集团为典型,针对双至强处理器,其中包含MCH CPU频率533MHz前端总线和DDR,内存,前端总线带宽可以达到4.3gb /秒。然而,随着处理器性能的不断提高,由此带来了许多问题的系统结构。Ldquo;hypertransport框架不仅解决问题,而且有效地提高了总线带宽,例如AMD皓龙HyperTransport处理器,我 / O总线架构使得它灵活的集成内存控制器,处理器不通过系统总线芯片组与内存直接交换数据。在这种情况下,前端总线频率不在AMD Opteron处理器已知。


4,CPU的位置和字长


位:二进制代码是应用在数字电路和计算机技术的,代码是0和1,0,或1CPU是点;







字长:电脑技术,可以在单位时间内处理的二进制数(同时)在单位时间内(同一时间)称为字长,CPU,可以处理8位数据,通常被称为一个8位的CPU,同32位的CPU可以处理长度与单位时间内的32位字的二进制数据。字节和字长的区别:由于常用的英文字符可以在8位二进制表示,8位通常被称为一个字节,字长的长度是不固定的,和不同的CPU的字长的长度是不同的,8位的CPU一次只能处理一个字节,而32位的CPU一次可以处理4个字节,而64位CPU可以处理8 B同时细胞。


5。倍频系数


乘法因子是指CPU频率与频率关系的相对比值,在同一频率下,CPU频率的频率也较高,但实际上在同一前提下,CPU本身的频率不高,这是因为CPU与系统之间的数据传输速度有限。如果我们追求高倍频,获得高频率的CPU,会出现明显的瓶颈效应;;mdash;CPU可以从系统数据的极限速度,不能满足CPU运算的速度。一般来说,英特尔的CPU,除了工程样品,是锁定的频率翻一番,并没有锁定在AMD。


6。缓存


缓存大小也是CPU的重要指标之一,cache的结构和大小对CPU的速度有很大的影响。CPU中的缓存运行非常频繁。它通常工作在相同的频率的处理器,和效率远远大于系统内存和硬盘。在实际工作中,经常需要CPU读取同一数据块的重复,以及缓存容量的增加可以大大提高CPU内部读取数据的命中率,而不是寻找记忆或硬盘上,从而提高系统的性能,但由于CPU芯片面积和成本的因素,高速缓存是非常小的。


L1缓存(1级缓存)是CPU的第一层缓存,它分为数据缓存和指令缓存,内置的L1缓存的容量和结构对CPU的性能有很大的影响,而高速缓冲存储器由静态RAM构成,结构复杂。如果CPU核心面积不太大,L1缓存的容量不能太大。L1缓存容量一般服务器的CPU通常是在32mdash;256kb。


L2缓存(二级缓存)是CPU的第二层缓存,它分为两个内部和外部芯片,内部芯片两级缓存的主频与主频相同,而外部两级缓存仅占主频的一半,L2缓存的容量也会影响CPU的性能。越大越好,CPU的最大容量是512KB。在服务器和工作站与CPU的L2高速缓存是高于256-1mb,有的和2MB或3mb高。


L3 Cache(三级缓存)分为两种,早期的是外在的,而现在是内置的。实际的效果是,L3缓存的应用可以进一步降低内存延迟,提高处理器的性能在大数据量的计算方法。降低内存延迟和增加计算大量数据的能力有助于比赛。还有在服务器领域L3提高性能方面有显著的提高。例如,一个更大的L3缓存,配置,将更有效地利用物理内存,所以它的磁盘的我/ O子系统可以处理更多的数据请求。一个大的L3缓存提供更有效的文件系统缓存行为处理器更短的消息和处理器队列长度。


In fact, the earliest L3 cache was applied to the K6-III processor released by AMD. 当时,L3缓存是由制造工艺有限,并没有集成到芯片,而是集成在主板上,L3缓存,只能与系统总线频率同步是不是比主memory.l3差很多后来被用于缓存Itanium处理器,英特尔已经推出了用于服务器市场。然后p4ee和至强MP。英特尔也计划推出9MB L3缓存Itanium2处理器和双核心Itanium2处理器缓存在未来24mb L3。


但基本上,L3缓存对于提高处理器的性能并不是很重要。例如,配备了1MB L3缓存的Xeon MP处理器仍不是Opteron的对手,所以我们可以看到,前端总线的提升带来比缓存提高性能更有效的改进。


7.cpu扩展指令集


CPU依靠指令来计算和控制系统,每一个CPU的设计,指定一系列的指令系统,其硬件电路兼容。该指令的强度也是CPU的重要指标,指令集是提高微处理器效率的最有效的工具之一。在现阶段的主流架构,指令集可分为复杂指令集和两部分,从具体的应用程序,如英特尔的MMX(多媒体扩展)、SSE、SSE2(单指令多数据流扩展2),看到AMD和3DNow!是CPU集扩展,分别提高CPU的多媒体处理能力,图形和网络等。我们通常所说的扩展指令集的CPU作为指令集CPU,SSE3指令集也是最小的指令集。现在,MMX包含57个命令,所包含的50个命令,SSE2包含144个命令,并且还包含13个命令。目前,SSE3是最先进的指令集,英特尔普雷斯科特处理器已经支持SSE3指令集,AMD将被添加到设置在将来支持双核处理器的SSE3指令,高通处理器支持的指令集。







8.cpu内核和我/ O工作电压


从586cpu,CPU的工作电压分为两种核心电压,我 / O电压和CPU核心电压通常小于等于我 / O电压,内核电压的大小是根据CPU的生产工艺。在生产过程中较小的,较低的内核工作电压;I / O电压一般在1.6 ~ 5v.low电压可以解决能耗过高的问题,过热。


9。制造过程


制造工艺的微米是指电路在集成电路之间的距离。制造工艺的趋势是向高密度发展,IC电路设计的密度越高,意味着在IC尺寸相同,可以有更高的密度,该电路设计更复杂的功能现在主要的180nm,130nm、90nm。近年来,政府已经表示有65nm的制造工艺。


10。指令集


(1)CISC指令集


CISC指令集,也称为复杂指令集,取名CISC,(复杂指令集计算机的缩写)。在CISC微处理器中,程序的指令是顺序执行的,并在每个指令都是顺序执行的操作的顺序执行的优点是控制简单,但对计算机各部分的利用率不高,执行速度慢。其实,这是x86系列(也由英特尔IA-32架构)CPU及其兼容CPU,如AMD和VIA。即使现在新的x86-64(也AMD64)属于CISC范畴。


要知道什么是指令集是说从今天的x86架构的CPU,x86指令集是16 CPU的第一块英特尔(i8086)专门开发的,世界上第一个电脑ibm1981推出CPUmdash;i8088(i8086简化版)使用的x86指令,和计算机为了提高数据处理能力和提高浮点x87芯片的指令集和x87指令集称为x86指令集X86。


虽然随着CPU技术的发展,英特尔开发了军用标准,i80486更新直到最后PII奔腾3,PIII至强Xeon,最后到今天的Pentium 4系列、Xeon(不包括至强Nocona),但为了确保计算机可以继续运行各种应用的开发保护继承的软件资源丰富,因此所有的CPU英特尔生产企业仍然继续使用X86指令集,所以它仍然属于x86系列CPU。由于英特尔X86系列及其兼容CPU(如AMD Athlon MP)使用x86指令集,今天的巨大的x86系列和兼容的CPU阵容是formed.x86cpu目前主要有英特尔服务器CPU和AMD服务器CPU两类。


(2)RISC指令集


RISC是英语精简指令集计算的缩写,中文意思是集;指令的简化;它是基于CISC指令系统的发展,对CISC机命令相当悬殊的使用频率的测试是最常用的一些比较简单的指令,它们占只有20%的指令的总数,但在程序的频率占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的开发时间和成本高,复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,日E RISC CPU诞生于20世纪80年代,CISC CPU相比,RISC CPU不仅简化了指令系统,还采用超标量和超流水线,这大大增加了并行处理power.risc指令集是高性能CPU的发展方向,它是相对于传统的CISC(复杂指令集)。相比较而言,RISC的指令格式统一,种类比较少,和寻址模式比复杂指令集。当然,处理速度得到了很大的改善。目前,这一指令系统的CPU,被广泛应用于中、高档服务器,尤其是RISC指令系统CPU,RISC指令系统更适合高端服务器的操作系统UNIX,现在Linux也是一个类似Unix的操作系统,RISC型CPU和英特尔和AMD的CPU与软件和硬件不兼容。


目前,主要有几种CPU使用RISC指令在中高端服务器:PowerPC处理器,SPARC处理器PA-RISC处理器,MIPS处理器,处理器。


(3)IA-64


有很多争论是否EPIC(显式并行指令计算机,精确并行指令计算机)是RISC和CISC体系的继承者。与EPIC系统一样,它更像是英特尔处理器走向RISC系统的重要一步,从理论上讲,CPU EPIC系统的设计,在同一主机配置下,基于unix应用软件的Windows应用软件要好得多。







英特尔的服务器的CPU,以史诗般的技术,是一种安腾(开发代码,Merced)。它是一个64位的处理器,而且在ia-64.microsoft第一系列还开发了一个操作系统,命名为Win64,这是支持的软件。在英特尔使用x86指令集,它转向更先进的64位微处理器,英特尔这样做的原因是他们想摆脱的x86架构的巨大容量,并介绍说明精力充沛和强大,所以史诗IA-64指令集架构的使用出生。在许多方面,它比x86有了很大的进步。它打破通过对传统的IA32架构的局限,具有数据处理能力的突破性、系统的稳定性、安全性、可用性和可观察的合理性。


最大的缺陷是IA-64微处理器与x86和英特尔软件兼容IA-64处理器缺乏可更好地运行的两个朝代,它在IA-64处理器(Itanium,Itanium2 )的x86-to-ia-64解码器的推出,它将能够翻译的x86指令为IA-64指令。这个解码器并不是最高效的解码器,也不是最好的方式来运行x86代码。最好的方法是在x86处理器上直接运行x86代码。因此,Itanium和Itanium2性能很差当他们运行x86应用程序。这也成为x86-64的根源。


(4)x86-64(AMD64或EM64T)


AMD的目的是处理64位的整数运算,同时并与x86-32架构兼容。逻辑支持64位寻址,并转换为32位的寻址方案;但数据操作指令默认为32位和8位,转换为64位和16位的选项;支持通用的登记,如果32的操作,将扩大到64个完整的结果。这样,指令中有直接执行;和和执行的转换之间的差异;教学场是8或32位,和字段太长,要避免。


x86-64(也叫AMD64)这不是32bit x86处理器空穴来风。寻址空间,在4GB内存的限制,和IA-64处理器不兼容x86.amd充分考虑客户的需求,加强x86指令集的功能,使指令集可以同时支持64位的操作模式,因此AMD称其结构x86-64.technically,为了进行AMD x86-64的64位操作,AMD推出了新的r8-r15通用登记作为原始x86处理器登记的延伸,但并不完全使用这32个寄存器。原来的寄存器,如EAX,EBX,也扩大了从32位到64位。8新注册加入SSE单元提供支持SSE2,寄存器数量的增加将增加每性能。同时,为了同时支持32和64位代码和寄存器,x86-64架构允许处理器在以下两种工作模式:长模式和传统模式(模式)(遗传模式),长的模型分为两个子模式(64位模式和兼容模式兼容模式)。该标准已经介绍了AMD的服务器处理器Opteron处理器。


今年,64位EM64T技术已经推出,它并没有被正式命名为EM64T之前被ia32e。这是英特尔64位扩展技术的名字,用来区分x86指令集。英特尔EM64T支持64位的子模式,类似于AMD的x86-64技术,采用64位线性平面寻址,增加了8个新的通用寄存器(GPRS),并增加了8个寄存器支持SSE指令。类似于AMD,英特尔的64位技术将与IA32和ia32e兼容,并ia32e将只有64位操作系统run.ia32e将由2个子模式:64位子模式和32位模式,并向下兼容为AMD64。英特尔EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,而英特尔的奔腾4e处理器也支持64位技术。


应该说,他们都是64位微处理器架构与x86指令集兼容,但仍有EM64T和AMD64之间的一些差异。在AMD64处理器的NX位将不会在英特尔处理器提供。


11。超流水线和超标量


在解释超流水线和超标量,先了解管道(管道),管道是英特尔开始使用486芯片第一次。装配线是工业生产中的装配线。CPU的5mdash;不同功能由一个指令处理管线6电路单元,然后一个x86指令分为5mdash;6步,分别从单元电路后,使我们能够实现在一个CPU时钟周期完成的指令,从而提高CPU的运算速度。经典奔腾的每个整数线分为水,四个层次即指令预取、译码、执行和写回,和浮点水分八级水。







超标量是执行多个处理器同时通过内置的多个行,而本质是交换空间换时间。流水是为了实现一个或多个操作在一个机器周期细化流程、提高主频,而本质是用时间交换空间。例如,奔腾4流水线达到20。再步(水平)的管道设计,更快的完成一条指令,因此可以适应的工作主频更高的CPU,但长线也带来了一些副作用,可能会出现高频率的CPU实际运算速度较低现象,英特尔奔腾4出现了这种情况,虽然它的频率可以达到1.4G,卜其操作性能远不及AMD Athlon 1.2g、奔腾III。


12。包装形式


CPU封装是使用特定的材料来固化CPU芯片或CPU模块,以防止损坏。它通常是必要的,CPU被封装后交付用户使用。对CPU安装包的形式和设备集成设计的方式,从分类的角度通常是用来安装插座插座CPU PGA(栅格阵列封装),和Slot x槽安装的CPU采用SEC(单边连接器在包装盒)的形式。现在有PLGA(塑料栅格阵列)、奥尔加(栅格阵列)等封装技术。由于市场竞争的日益激烈,目前CPU封装技术的发展方向是节约成本。


13,多线程


同时,多线程的同步多线程技术,简称smt.smt可以在处理器结构的复制,因此,在相同的处理器同步执行多线程共享处理器的执行资源,可最大限度的广泛问题,序的超标量处理,提高处理器组件的利用率,根据相关的缓存或缓解随着数量的失误带来的访问延迟记忆。当没有多个线程可用,SMT处理器几乎和传统的宽发射超标量处理器相同。关于SMT最有吸引力的是,它只需要一个小规模的改变处理器的核心的核心,它能显著提高效率不广告丁的额外费用。多线程技术可以准备更多的待处理数据的高速运转的核心,并在运行核心减少空闲时间。这无疑是很有吸引力的桌面低端系统。英特尔从3.06ghz奔腾4开始,所有的处理器将支持SMT技术。


14、多核


多核,也指单芯片多处理器(简称多处理器,简称CMP),CMP是由斯坦福大学提出的。其思路是将SMP(对称多处理器)的大规模并行处理器在同一芯片,每个处理器并行执行不同的进程。与CMP的SMT处理器结构的灵活性比较突出。但是,当半导体工艺进入0.18微米,线路的延时已经超过了门延迟。微处理器的设计需要许多小的更好的基本单元结构的划分。相反,由于CMP结构已经被划分成多个处理器核心,每个核心相对简单,有利于优化设计,因此具有广阔的发展前景。目前,电力4芯片的IBM和太阳majc5200芯片采用了CMP结构。多核处理器可以在处理器共享缓存,提高缓存利用率,同时简化多处理器系统设计的复杂度。


在2005下半年,英特尔和AMD的新处理器也将被集成到CMP结构。新安腾处理器开发代码是蒙特西托,采用双核心设计,具有最小的18mb缓存芯片,采用90nm工艺制造。它的设计无疑是当今芯片行业面临的挑战,每个独立的核心都有独立的L1、L2和L3缓存,其中包含大约10亿个晶体管。


15、SMP


SMP(对称多处理)的缩写,对称多处理结构,是指一组处理器(多处理器)是聚集在一个电脑,在CPU、存储器子系统和总线结构是共享的。随着这一技术的支持下,一个服务器系统可以运行多个处理器同时分享内存和其他的主机资源。像双支强,也就是我们所说的两种方式,这是在对称处理器系统中最常见的一种。(支强议员可以支持到四路,AMD Opteron可以支持1-8路)。也有少数的16。但是一般来讲,SMP结构的机器可扩展性较差,很难达到100以上的处理器。传统的通常是8到16,但这对大多数用户来说已经足够了,在高性能服务器和工作站主板架构中最为常见,就像UNIX服务器最多支持256 CPU系统一样。







构建SMP系统的必要条件是:支持SMP的硬件,包括主板和CPU、SMP支持系统平台和SMP支持应用软件。


为了使SMP系统进行高效的性能,操作系统必须支持SMP系统,如Linux和Unix中,,,和其他的32位操作系统,能够进行多任务和多线程处理多任务的操作系统可以让不同的CPU完成不同任务的同时。多线程意味着操作系统可以使不同的CPU并行完成相同的任务。


SMP系统的建立对cpu的选择提出了很高的要求。首先,必须有APIC(高级可编程中断控制器)单元内。英特尔规格的高级可编程中断控制器的核心(高级可编程中断控制器)的使用;再次,相同的类型,CPU核心类型相同,相同的运行频率;最后,尽可能保持相同的产品编号,因为两个生产批次的CPU作为双处理器运行,也有可能出现高CPU的负担,而另一点负担,最大限度地发挥其性能较差可能导致崩溃。


16、NUMA技术


NUMA叫做不一致的访问、分布式共享存储技术。它是由几个独立的节点通过高速专用网络连接,每个节点可以是一个单一的CPU或SMP系统。在纽马,有很多的缓存一致性的解决方案,需要操作系统和特殊软件的支持。图2是后续的NUMA系统的一个例子。这里有3个SMP模块组合用高速专用网络组成一个节点12个CPU节点系统的顺序可以达到64甚至256的CPU CPU。显然,这是SMP的基础,然后扩展NUMA技术,这两种技术的结合。


17。混沌序列执行技术


乱序执行(从订单执行)是一个CPU可以发送多个指令对应的各电路单元分别技术。这将根据具体情况对一个电路单元的状态和各指令可以提前执行分析,将之前的指令立即发送给相应的电路实施,在这一时期不受指令的顺序执行,然后重新排列单元,执行单元根据指令,利用混沌序列执行技术的目的是为了使CPU内部电路运行满负荷,提高相应的CPU运行程序的速度。分兴技术:(分支)指令在计算执行时需要等待结果。一般情况下,无条件的分支只需要按照指令序列执行,条件分支必须根据处理后的结果来决定。


18、CPU内存控制器


许多应用程序拥有更为复杂的读取模式(几乎是随机的,尤其是当缓存命中是不可预测的),并没有有效地利用带宽。典型的应用是业务处理软件,即使CPU等功能的执行顺序也由内存延迟的限制。这样,CPU必须等待数据加载到执行指令(数据是否来自CPU的高速缓存或内存系统)。当前低段系统的内存延迟大约是120 150ns,而CPU速度大于3GHz。一个单一的内存请求可以浪费200-300 CPU周期。即使在缓存命中率(命中率)达到99%,CPU可能会花50%的时间在等待存储器访问结束时,内存延迟。


你可以看到Opteron整合的内存控制器,它的延迟比芯片组支持双通道DDR内存控制器的低得多。英特尔还集成了内存控制器的处理器为计划内,这使得北桥芯片不重要。但改变了处理器访问内存有助于提高带宽、降低内存延迟,并提高处理器的性能。