哪里韩国决定部署萨德系统fsb位宽,是北桥韩国决定部署萨德系统,还是cpu韩国决定部署萨德系统,还是装的系统韩国决定部署萨德系统的

前端总线频率怎么看
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
中文名前端总线频率怎么看
主板芯片组(Chipset)是主板的核心组成部分,可以比作CPU与周边设备沟通的桥梁。在电脑界称设计芯片组的厂家为Core
Logic,Core的中文意义是核心或中心,光从字面的意义就足以看出其重要性。对于主板而言,芯片组几乎决定了这块主板的功能,进而影响到整个电脑系统性能的发挥,芯片组是主板的灵魂。芯片组性能的优劣,决定了主板性能的好坏与级别的高低。主板的前端总线频率和CPU的前端总线频率说的是一个东西
但一个在主板上一个是在CPU上,前端总线频率指的是CPU和北桥芯片之间交换数据的频率。
前端总线的英文名字是Front Side
Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。计算机的前端总线频率是由CPU和北桥芯片共同决定的。
北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
主板的前端总线频率和CPU的前端总线频率一致的时候才能发挥最佳性能.
而CPU和内存都具有相应的速率和带宽。在配置电脑过程中,根据CPU的速率和带宽,来搭配相应速率和带宽的内存,会直接影响整机的性能.
如果选择的是赛扬4系列CPU,则应该要配置DDR333/DDR400内存,DDR266只适合赛扬3和采用AMD的新品毒龙、基于Thorton核心的Athlon
XP系列产品的CPU。而Barton 3200+型号和Athlon
64系列的产品则应该搭配DDR400内存。同理,如果购买的是P4系列处理器,则应该采用DDR400甚至双通道的DDR333或DDR400内存来匹配,以免出现CPU带宽浪费过多,而影响电脑的整体性能的情况。
Cpu、内存工作频率与FSB的关系
1、cpu主频:cpu主频≠cpu运算速度,虽然两者有关紧密的关系,但就现在来说还无法给出一个通用的标准计算公式。Cpu主频是指cpu内核工作的时钟频率,也就是cpu内核工作时每时钟周期脉冲震荡的次数,每秒震荡1次就是1Hz,每秒震荡1000次就是1KHz,1MHz就是每秒振荡1000KHz,所以,1GHz=1000MHz=1000000KHz=Hz,就是这么个计算方式。那怎么来理解cpu的运算速度,实际上cpu每次震荡可以做一次计算,n次计算=1条指令(n为不定数哦),所以说,cpu的运算速度不仅仅取决于它的主频,还要看它的流水线、缓存、指令集等等多方面的因素。但相同指令集、流水线、缓存等指标的cpu肯定是主频越高速度越快了。
2、cpu外频:为什么叫外频,我们可以姑且简单将它理解为cpu的外部频率,为什么是外部?很简单,只有cpu无法完成工作吧,它总得与内存、主板等元件进行数据交互吧,可内存、主板、元件这些可达不到cpu那么变态的工作频率,咋办呢?降!在cpu的外部,各元器件之间降频使用,使各配件工作在可以承受的工作频率,而在cpu的内部,通过倍频的技术将整个工作频率再提升起来。所以cpu主频=倍频×外频。
3、cpu倍频:全称为倍频系数,也就是上面所说的,cpu把频降下来以使其它的配件可以更好更稳定的配合它工作,但在cpu内部通过倍频系数将cpu的工作频率提升起来。
前端总线:以教科书的方式来描述前端总线就是“将数据以一个或多个配件传送到一个或多个目的配件的一组传输线”,以通俗的说法,就是多个配件间的公共连线(各城市间的通道),而在我们平常使用的电脑中,FSB实际上是将cpu连接到北桥芯片的总线,也就是说,一台计算机的FSB实际上是由CPU和北桥芯片共同决定的,也就是CPU和主板共同决定的,其它的配件如内存需要附从其行。可能很多人认为CPU是直连到内存的,但实际上不是,内存、显卡这些配件是通过北桥芯片联系的,也就是cpuà北桥芯片à内存、显卡,这箭头其实就是前端总线。就是各配件数据传输的高速公路。这条高速公路
cpu总线技术:
A、Intel总线技术,现在intel的cpu采用的是QDR技术,即4倍并行总线技术,与DDR的设计理念类似,利用正弦波的上下、正负沿各传输一次数据,利用了这种技术的cpu,它的外频与FSB的关系就是FSB=外频×4
B、AMD总线技术:AMD采用的是HyperTransport的总线技术,就是在同一个总线中模拟出两个独立数据链进行点对点数据双向传输,和DDRII的理论很相似,所以说它的理论最大传输速率几乎可以翻倍,比如现在的4800+,它意思说可以达到肉4800的速度,但实际上它的主频只有2.4G。AMD的cpu总线与外频的关系是FSB=外频×5,这里表示5倍系数,是可调节的,例如4800+总线为1000,但工作频率其实是200(外频),倍频12.而闪龙3000+的FSB是800,工作频率依然为200,它的HT倍率为4,就是这么着理解的了。有兴趣了解HT技术的朋友可以在网上自己找相关的资料。今天看啥 热点:
处理器(CPU)调度问题,处理器cpu调度问题

由于处理机是最重要的计算机资源,提高处理机的利用率及改善系统性能(吞吐量、响应时间),在很大程度上取决于处理机调度性能的好坏,因而,处理机调度便成为操作系统设计的中心问题之一。
一、处理机调度的层次
1、高级调度:又称为作业调度或长程调度,其主要功能是根据某种算法,把外存上处于后备队列中的那些作业调入内存,也就是说,它的调度对象是作业。
①作业是一个比程序更为广泛的概念,它不仅包含了通常的程序和数据,而且还应配有一份作业说明书,系统根据该说明书来对程序的运行进行控制。在批处理系统中,是以作业为基本单位从外存调入内存的。
②作业调度:其主要功能是根据作业控制块中的信息,审查系统能否满足用户作业的资源需求,以及按照一定的算法,从外存的后备队列中选取某些作业调入内存,并为它们创建进程、分配必要地资源。然后再将新创建的进程插入就绪队列中,准备执行。因此,有时也把作业调度称为接纳调度。每次作业调度时都必须做出以下两个决定:决定接纳多少个作业、决定接纳哪些作业。然而在分时系统中,为了做到及时响应,用户通过键盘输入的命令或数据等都是被直接送入内存的,因而无需再配置上述的作业调度机制,但也需要有某些限制性措施来限制进入系统的用户数。
2、低级调度:又称为进程调度或短程调度,其主要功能是用于决定就绪队列中的哪个进程应获得处理机,然后再由分派程序执行把处理机分配给该进程的具体操作。主要完成以下几个任务:保存处理机的现场信息、按某种算法选取进程、把处理器分配给进程。
①进程调度中的三个基本机制:排队器、分配器和上下文切换机制。
②进程调度方式:非抢占方式、抢占方式
1)非抢占方式:一旦把处理机分配给某进程,不管它要运行多长时间,都一直让它运行下去,决不会因为时钟中断等原因而抢占正在运行程序的处理机,也不允许其它进程抢占已经分配给它的处理机。直至该进程完成,自愿释放处理机,或发生某事件而被阻塞时,才把处理机分配给其它进程。
在采用非抢占调度方式时,可能引起进程调度的因素可归结为如下几个:
正在执行的进程执行完毕,或因发生某事件而不能再继续执行;
执行中的进程因提出I/O请求而暂停执行;
在进程通信或同步过程中执行了某种原语操作,如p操作(wait操作)、Block操作、Wakeup原语等。
2)抢占方式:允许调度程序根据某种原则去暂停某个正在执行的进程,将已分配给该进程的处理机重新分配给另一进程。它是基于以下原则的:优先权原则、短作业(进程)优先原则、时间片原则。
3、中级调度:又称中程调度。主要目的是为了提高内存利用率和系统吞吐量。为此,应使那些暂时不能运行的进程不再占用宝贵的内存资源,而将它们调至外存上去等待,把此时的进程状态称为就绪驻外存状态或挂起状态。当这些进程重又具备运行条件且内存又稍有空闲时,由中级调度来决定把外存上的那些又具备运行条件的就绪进程重新调入内存,并修改其状态为就绪状态,挂在就绪队列上等待进程调度。
二、选择调度方式和调度算法的一些准则
1、面向用户的准则
①周转时间短:所谓周转时间,是指从作业被提交给系统开始,到作业完成为止的这段时间间隔。它包括四部分:作业在外存后备队列上等待调度的时间,进程在就绪队列上等待进程调度的时间,进程在CPU上执行的时间以及进程等待I/O操作完成的时间。
平均周转时间T=1/n(T1+T2+...+Tn);
带权周转时间为作业的周转时间T与系统为它提供服务的时间Ts之比,即W=T/Ts;
平均带权周转时间W=1/n(T1/Ts+T2/Ts+...+Tn/Ts);
②响应时间快:所谓响应时间,是从用户通过键盘提交一个请求开始,直至系统首次产生响应为止的时间,或者说,直到屏幕上显示出结果为止的一段时间间隔。它包括三部分时间:从键盘输入的请求信息传送到处理机的时间,处理机对请求信息进行处理的时间,以及将所形成的响应信息回送到终端显示器的时间。
③截止时间的保证:所谓截止时间,是指某任务必须开始执行的最迟时间或必须完成的最迟时间。
④优先权原则
2、面向系统的准则
①系统吞吐量高:吞吐量是指单位时间内系统所完成的作业数,因而它与批处理作业的平均长度具有密切关系。
②处理机利用率好
③各类资源的平衡利用
三、调度算法
1、先来先服务调度算法(FCFS)
2、短作业(进程)优先调度算法(SJ(P)F)
3、高优先权优先调度算法
1)调度算法类型
①非抢占式优先权算法
②抢占式优先权算法
2)优先权类型
①静态优先权:是在创建进程时确定的,且在进程的整个运行期间保持不变。
②动态优先权:在创建进程时所赋予的优先权,是可以随进程的推进或随其等待时间的增加而改变的,以便获得更好的调度性能。
4、时间片轮转法:一个可取的大小是,时间片略大于一次典型的交互所需要的时间。这样可使大多数进程在一个时间片内完成。
5、多级反馈队列调度算法,其按一下过程实施:
①设置多个就绪队列,并为各个队列赋予不同的优先级,第一个队列的优先级最高,一次类推。
②当一个新进程进入内存后,首先将它放入第一队列的末尾,按FCFS原排队等待调度,如果它在一个时间片结束时尚未完成,调度程序便将该进程转入第二队列的末尾,依次类推。
③仅当第1~(i-1)队列均空时,才会调度第i队列中的进程运行。如果处理机在第i队列中为某进程服务时又有新进程进入优先权较高的队列,则此时新进程将抢占正在运行进程的处理机,即由调度程序把正在运行的进程放回到第i队列的末尾,把处理机分配给新到的高优先权的进程。
四、实时调度
1、在实时系统中,系统处理能力必须要强。假定系统中有m个周期性的硬实时任务,它们的处理时间可表示为Ci,周期时间表示为Pi,则在单处理机情况下,必须满足下面的限制条件:C1/P1+C2/P2+...+Cm/Pm&=1系统才是可调度的。例如系统中有6个硬实时任务,它们的周期时间都是50ms,而每次的处理时间为10ms,则不难算出,此时系统是不可调度的。
2、实时调度算法的分类
1)非抢占式调度算法
①非抢占式轮转调度算法
②非抢占式优先调度算法
2)抢占式调度算法
①基于时钟中断的抢占式优先权调度算法
②立即抢占的优先权调度算法
3)最早截止时间优先即EDF算法
4)最低松弛度优先即LLF算法
总线是将信息以一个或多个源部件传送到一个或多个目的部件的一组传输线。通俗的说,就是多个部件间的公共连线,用于在各个部件之间传输信息。人们常常以MHz表示的速度来描述总线频率。总线的种类很多,前端总线的英文名字是Front Side Bus,通常用FSB表示,是将CPU连接到北桥芯片的总线。选购主板和CPU时,要注意两者搭配问题,一般来说,如果CPU不超频,那么前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作。也就是说,需要主板和CPU都支持某个前端总线,系统才能工作,只不过一个CPU默认的前端总线是唯一的,因此看一个系统的前端总线主要看CPU就可以。
北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。显然同等条件下,前端总线越快,系统性能越好。
外频与前端总线频率的区别:前端总线的速度指的是CPU和北桥芯片间总线的速度,更实质性的表示了CPU和外界数据传输的速度。而外频的概念是建立在数字脉冲信号震荡速度基础之上的,也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一万万次,它更多的影响了PCI及其他总线的频率。之所以前端总线与外频这两个概念容易混淆,主要的原因是在以前的很长一段时间里(主要是在Pentium 4出现之前和刚出现Pentium 4时),前端总线频率与外频是相同的,因此往往直接称前端总线为外频,最终造成这样的误会。随着计算机技术的发展,人们发现前端总线频率需要高于外频,因此采用了QDR(Quad Date Rate)技术,或者其他类似的技术实现这个目的。这些技术的原理类似于AGP的2X或者4X,它们使得前端总线的频率成为外频的2倍、4倍甚至更高,从此之后前端总线和外频的区别才开始被人们重视起来。此外,在前端总线中比较特殊的是AMD64的HyperTransport。外频CPU的外频,通常为系统总线的工作频率(系统时钟频率),CPU与周边设备传输数据的频率,具体是指CPU到芯片组之间的总线速度。外频是CPU与主板之间同步运行的速度,而且目前的绝大部分电脑系统中外频,也是内存与主板之间的同步运行的速度,在这种方式下,可以理解为CPU的外频直接与内存相连通,实现两者间的同步运行状态。 在486之前,CPU的主频还处于一个较低的阶段,CPU的主频一般都等于外频。而在486出现以后,由于CPU工作频率不断提高,而PC机的一些其他设备(如插卡、硬盘等)却受到工艺的限制,不能承受更高的频率,因此限制了CPU频率的进一步提高。因此出现了倍频技术,该技术能够使CPU内部工作频率变为外部频率的倍数,从而通过提升倍频而达到提升主频的目的。倍频......余下全文>>
确实,一次只能由一个进程占用cpu,双核2个进程(没有超线程技术前提下)因为cpu的在不断的切换进程,切换速度看你的CPU主频。
相关搜索:
相关阅读:
相关频道:
&&&&&&&&&&&&
系统综合最近更新计算机位宽为什么会决定cpu的传输性能_百度知道
计算机位宽为什么会决定cpu的传输性能
代表着CPU与内存之间的数据传输量越大,即数据带宽=(总线频率×数据位宽)÷8。
外频与前端总线频率的区别.cn/product_param/index512、333MHz。也就是说,一般都带有足够的向下兼容性总线是将计算机微处理器与内存芯片以及与之通信的设备连接起来的硬件通道://detail,外频是CPU与主板之间同步运行的速度:
其他类似问题
为您推荐:
其他1条回答
位宽类似于一辆车的载重能力,一次运送32人和一次运送64人在相同的时间内一样的速度下(频率)当然位宽大的效率更高,前提是操作系统一定也要支持这种大位宽的(比如64位操作系统)
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁& CPU给北桥的地址是物理地址吗?
声明: 本页内容为的内容镜像,文章的版权以及其他所有的相关权利属于和相应文章的作者,如果转载,请注明文章来源及相关版权信息。
(finished)
(finished)
(finished)
CPU给北桥的地址是物理地址吗?
[ | 154 byte(s)]
[ | 2,432 byte(s)]
[ | 129 byte(s)]
[ | 196 byte(s)]
[ | 572 byte(s)]
[ | 82 byte(s)]
[ | 95 byte(s)]
[ | 555 byte(s)]
[ | 336 byte(s)]
1.CPU通过fsb到北桥里寻址,发给北桥的应该是最后的物理地址吧?
2.地址的有效性是MCH判断,若超过内存总数,又MCH返回给CPU寻址无效的?
CPU发给总线的地址是物理地址,但是这个物理地址跟我们平常说的内核里面的那个物理地址不是一个地址。
内核里的那个物理应该是所谓的"线性地址"吧?,即没有经过页映射的地址
硬件地址和软件地址,概念混淆,很乱啊.
或许,FSB上的地址应该叫总线地址,PCIE设备IOMEM的地址也是总线地址,BIOS映射的地址也是总线地址.凡是在硬件上看到的都是总线地址.
页表映射实现:内核物理地址(线性地址)到总线地址的映射.
页表内描述的是总线地址.
x86 CPU汇编用的也是线性地址吧,页表映射应该是CPU自动完成.
不知道这样理解是否正确,最近一直研究地址描述,映射,就是概念不清晰
请指点一下.
北桥得到的地址肯定是物理地址,地址再出CPU之前应该已经是经过MMU处理的。如果是这还是虚拟地址,北桥芯片哪知道怎么处理啊?
北桥芯片得到地址后,会根据地址中携带的片选信号去访问相应的内存设备。
有个提法我觉得不妥:"页表映射实现:内核物理地址(线性地址)到总线地址的映射"
提交页表映射的地址不是什么内核物理地址,而应该叫做有效地址,如果是Linux,那么应该是虚拟地址才对。CPU在访问Local Bus的时候并不知道自己的地址是虚拟地址还是物理地址。CPU发出的访问地址会经过MMU(所谓的页表机制)的映射,转化成总线地址(也就是物理地址)。
北桥得到的地址肯定是物理地址,地址再出CPU之前应该已经是经过MMU处理的。如果是这还是虚拟地址,北桥芯片哪知道怎么处理啊?
北桥芯片得到地址后,会根据地址中携带的片选信号去访问相应的内存设备。
这个小孩脑袋很清晰。希望常来这里。也看了你的powerpc的问题。都不错。
我基本上是powerpc, mips的世界级水平的程序员。但是一段时间不摸,天天写评论
文章,今天一看你的问题,愣反应不上来了。I mean, 需要查spec了。以前基本上
是都在脑子里。
年纪也确实大了。。。
修身,齐家,论国,评天下:www.xtrj.org
谢老大,我一直对你景仰,一直希望有机会能接受你的指点。说来惭愧,不小了,翻过30了:(
确切的应该说是物理地址信号。
x86比较复杂,程序员所说的物理地址通常是指被“线性”化的内存,物理上可能是离散的。
物理地址:是由CPU地址总线[A0…An]时序决定的地址,物理地址空间的大小为2的n+1次方。比如说32bits的总线,这个空间的大小是0xxFFFFFFFF。
总线地址:是由外设(包括RAM, ROM等)地址总线[A0…Am]时序决定的地址,空间大小也是2的n+1次方。
物理地址空间,一部分给物理RAM用,一部分给总线用,这是由硬件设计来决定的,因此在32 bits地址线的x86处理器中,物理RAM一般不能上到4GB,因为还有一部分要给总线用。当然现在很多x86处理器address bus是36 bits或者更多。所以RAM容量支持还是蛮大的,特别是在服务器中。
有硬件设计经验的都知道,给你一个1G的RAM,你在设计时可以把它译码到地址空间的任何一个合适的地址,在PC机中,一般是把低端物理地址给RAM用,高端物理地址给总线用。
在ISA时代,CPU给出的部分地址(那个时代应该是IO地址)经过缓冲后就直接连到外设,但是外设一旦设计完毕,就不可改变,所以你买回一个板卡时,要拨动那些烦人的拨码开关,改变主板的译码逻辑,给每个外设分配一个独立的地址空间。
在PCI时代,物理地址空间经PCI桥处理后才送到外设,在PCI桥这里可以动态分配地址了,这样就不会有重叠冲突的可能。
虚拟地址:是CPU取指令或者取数据逻辑使用的地址,尽管没有打开映射时他们和物理地址是相同的。
为什么要有虚拟地址?
这个问题在操作系统中已经阐述的很明白,在多任务OS中,如果没有虚拟地址到物理地址的映射,比如说在ARM7上跑的ucos ii,那么在编译链接时,每个task的地址空间就得固定下来了,也就是说链接后,你想再添加一个task就不可能了,你想删除一个task也不可能了,尽管它已经死了,永远不会再执行(或者重新上电复位才会再执行)。
而有虚拟地址这个概念后,可以给每个task都可以有一个0xxFFFFFFFF的地址空间(在6.0版本以前的wince中不是这样),程序员在编写程序时,不用考虑链接到哪个地址,所有的task都是一样链接的,操作系统在装载task时,先申请一个物理空间,再把这个物理空间映射到这个task的0xxFFFFFFFF这个虚拟空间中,就可以执行这个task了。(在linux,win32中,task高2Gb的虚拟空间每个进程都是重叠的,也就是所谓的kernel空间)。这样不执行的task就可以删除,把空间留给别的task用。当然虚拟地址的作用远比上述多得多,强得多,灵活得多。
有了上面的描述,不难理解,CPU发出取指令请求时的地址是当前上下文的虚拟地址,MMU再从页表中找到这个虚拟地址的物理地址,完成取指。同样读取数据的也是虚拟地址,比如mov ax, var.
编译时var就是一个虚拟地址,也是通过MMU从也表中来找到物理地址,再产生总线时序,完成取数据的,这其中还包含了缺页故障怎么处理,展开来说,太多了!
物理空间和虚拟空间可以一样大,也可以比虚拟空间小,也可以比虚拟空间大
踏踏实实做人
输入您的搜索字词
提交搜索表单
unixresources.net
Copyright &
UNIX Resources Network, All Rights Reserved.
About URN | Privacy & Legal | Help | Contact us
webmaster:
This page created on
16:41:39, cost 0.1 ms.2797人阅读
嵌入式开发(15)
芯片组(Chipset)是主板的核心组成部分,联系CPU和其他周边设备的运作。如果说中央处理器(CPU)是整个电脑系统的心脏,那么芯片组将是整个身体的躯干。 在电脑界称设计芯片组的厂家为Core Logic,Core的中文意义是核心或中心,光从字面的意义就足以看出其重要性。对于主板而言,芯片组几乎决定了这块主板的功能,进而影响到整个电脑系统性能的发挥,芯片组是主板的灵魂。芯片组性能的优劣,决定了主板性能的好坏与级别的高低。这是因为目前CPU的型号与种类繁多、功能特点不一,如果芯片组不能与CPU良好地协同工作,将严重地影响计算机的整体性能甚至不能正常工作。  
北桥芯片   它主要负责CPU与内存之间的数据交换,并控制AGP、PCI数据在其内部的传输,是主板性能的主要决定因素。随着芯片的集成度越来越高,它也集成了不少其它功能。如:由于Althon64内部整合了内存控制器;nVidia在其NF3 250、NF4等芯片组中,去掉了南桥,而在北桥中则加入千兆网络、串口硬盘控制等功能。现在主流的北桥芯征的牌子有VIA、NVIDIA及SIS等。  当然这些芯片的好坏并不是由主板生产厂家所决定的,但是主板生产商采取什么样的芯片生产却是直接决定了主板的性能。如:同样是采用VIA的芯片,性能上则有KT600&KT400A&KT333&KT266A等。目前主流的 AMD平台上,可选的芯片组有:KT600、NF2、K8T800、NF3等;对于INTEL平台,则有915、865PE、PT880、845PE、 848P等。  
南桥芯片  南桥芯片主要是负责I/O接口等一些外设接口的控制、IDE设备的控制及附加功能等等。常见的有VIA的等;INTEL的有CH4、CH5、CH6等;nVIDIA的MCP、MCP-T、MCP RAID等。在这部分上,名牌主板与一般的主板并没有很大的差异,但是名牌主板凭着其出色的做工,还是成为不少人的首选。而不排除一部分质量稍差的主板为了在竞争中取得生存,可能会采用功能更强的南桥以求在功能上取胜。
PCI 一种由英特尔(Intel)公司1991年推出的用于定义局部总线的标准。此标准允许在计算机内安装多达10个遵从PCI标准的扩展卡。最早提出的PCI总线工作在33MHz频率之下,传输带宽达到133MB/s(33MHz * 32bit/s),基本上满足了当时处理器的发展需要。随着对更高性能的要求,1993年又提出了64bit的PCI总线,后来又提出把PCI 总线的频率提升到66MHz。
PCIE   PCI-Express是最新的总线和接口标准,它原来的名称为&3GIO&,是由英特尔提出的,很明显英特尔的意思是它代表着下一代I/O接口标准。交由PCI-SIG(PCI特殊兴趣组织)认证发布后才改名为&PCI-Express&,简称&PCI-E&。这个新标准将全面取代现行的PCI和AGP,最终实现总线标准的统一。它的主要优势就是数据传输速率高,目前最高的16X 2.0版本可达到10GB/s,而且还有相当大的发展潜力。PCI Express也有多种规格,从PCI Express 1X到PCI Express 16X,能满足现在和将来一定时间内出现的低速设备和高速设备的需求。现在主流主板都能能支持PCI Express 1.0 16X,也有部分较高端的主板支持PCI Express 2.0 16X,例如INTEL的P45、X48和AMD的770、780G、790X和790GX以及Nvidia GF8200等。当前PCI Express基本全面取代了AGP,就象当初PCI取代ISA一样,这个过程已经过度完毕了,虽然还有一些老用户在用AGP接口的显卡,但是市面上AGP显卡全面停卖,包括AGP插槽的主板也不见了踪影。 AGP 关于AGP,是当前被已经淘汰的图形系统接口
FSB   FSB=Front Side BUS前端总线  FSB只指CPU与北桥芯片之间的数据传输总线,又称前端总线。  对于P4来说,FSB频率=CPU外频*4。   这个参数指的就是前端总线的频率,它是处理器与主板交换数据的通道 北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率&数据位宽)&8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:84284次
积分:1177
积分:1177
排名:千里之外
原创:25篇
转载:31篇
评论:13条
(1)(1)(14)(6)(8)(4)(6)(9)(4)(3)

我要回帖

更多关于 系统位宽 的文章

 

随机推荐