BCM里面的方向灯控制南桥芯片坏了症状有什么影响

优肯BCM芯片系列万兆交换机UK3712-26TA深圳时速网吧交换机-钱眼产品
┆┆┆┆┆┆┆┆┆┆┆┆┆┆┆
┆┆┆┆┆┆┆┆┆┆┆┆┆┆┆
选择经营模式
组织团体/其他
国家或省份
 您当前位置:
> 万兆交换机  
 【】 【】 【】
 【】 【】
 优肯BCM芯片系列万兆交换机UK3712-26TA深圳时速网吧交换机    
发布时间: 12:01
地  区:
公  司:
联 系 人:李振宇
电  话: 86-2
移动电话:
传  真: 86-2-804
地  址: 新区建设东路百富汇科技园B栋二楼
邮  编: 518109
QQ:  MSN:
公司网站:/
&优肯BCM芯片系列万兆交换机UK3712-26TA深圳时速网吧交换机        
规  格:UK3712-26TA
型  号:UK3712-26TA
数  量:
品  牌:优肯
包  装:
价  格:29900
深圳市时速科技旗下品牌优肯推出的万兆交换机UK3712-26TA是一款采用BROADCOM芯片系列方案设计的以太网交换机。提供24个10/100/1000M RJ45电口、2个集成万兆口,给汇聚提供足够的带宽,可以实现全线速无阻塞交换,同时支持流量控制。非常适合中小企业、校园网、网吧和城域网的边缘使用。
★ ★ 深圳市时速科技旗下品牌优肯推出的万兆交换机UK3712-26TA是一款采用BROADCOM芯片系列方案设计的以太网交换机。提供24个10/100/1000M RJ45电口、2个集成万兆口,给汇聚提供足够的带宽,可以实现全线速无阻塞交换,同时支持流量控制。非常适合中小企业、校园网、网吧和城域网的边缘使用。★  具有88G背板带宽★  硬件路由,线速三层交换包转发率达到65.472Mpps★  可部署在城域网核心,并提供几个最后1千米技术★  即插即用,方便安装使用★  支持SFP+,同时也向下兼容XFP等★  全部端口支持自动协商功能(双工模式/速度)★  支持Auto-MDIX功能,自动识别直通网线和交叉网线★  UK3712-26TA万兆端口25、26实现端口汇聚
免责声明:以上信息由会员自行提供,该发布会员负责信息内容的真实性、准确性和合法性。钱眼网对此不承担任何责任。
* 京ICP备号
* 用户在发表言论时不得粘贴或传播任何非法的,具威胁性的,诽谤性的,贬损的,报复的、亵渎的或任何其他法律禁止的信息,包括但不限于传播任何煽动性鼓励犯罪的,或违反公民义务或任何其他违反地方法规、国家法律、法规或国际法律、惯例或公约的内容;需严格遵守、等法律法规的规定,并对自己的言论负责。
* 用户不得粘贴或传播任何散布任何他人的私人事件,不得粘贴或传播带有病毒,或任何带有贬损或损害性特征的内容;不得发布任何危害国家安全、破坏民族团结、封建迷信、淫秽、色情、赌博、暴力、凶杀、恐怖等法律、行政法规禁止的内容。
钱眼网客户服务  联系方式:E-mail:  
版权所有 Copyright &2015 Qianyan.biz All rights reserved. | 网络实名:钱眼
钱眼客服电话:010-  E_Mail: QQ:   
京公网安备:&&&京ICP备号来自子话题:
&img src=&/ff7f97dd010d83cce2762_b.jpg& data-rawwidth=&317& data-rawheight=&40& class=&content_image& width=&317&&&br&总觉得题主是想钓这套图(注意主持人的严肃脸)&br&&img src=&/5d4bd1f35d95d97bd5caf2_b.jpg& data-rawwidth=&636& data-rawheight=&514& class=&origin_image zh-lightbox-thumb& width=&636& data-original=&/5d4bd1f35d95d97bd5caf2_r.jpg&&&img src=&/fa7ab82e6b0ec_b.jpg& data-rawwidth=&600& data-rawheight=&445& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/fa7ab82e6b0ec_r.jpg&&&img src=&/ae29ec8daf740c5e3d89fed36b480887_b.jpg& data-rawwidth=&600& data-rawheight=&445& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/ae29ec8daf740c5e3d89fed36b480887_r.jpg&&&img src=&/ad405d179c1429396ffb074c94a5e077_b.jpg& data-rawwidth=&600& data-rawheight=&228& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/ad405d179c1429396ffb074c94a5e077_r.jpg&&
总觉得题主是想钓这套图(注意主持人的严肃脸)
谢邀。&br&&br&DEC Alpha 21264是几乎每一本体系结构书都要评论一番的经典之作,但是若把它跟今日的Intel相比,那就是找错参考系了。关公武艺再高强也打不过今天拿枪的小孩子。&br&&br&Alpha的全盛期是上世纪90年代,在那个以指令级并行度称雄,人人都以20-issue CPU为目标的年代里,身为第一批迈上乱序4-issue台阶的先行者(另一个是MIPS R10K),Alpha 21264如同雷公下凡,从气势上就稳压Intel的乱序3-issue P6一头,而且当时还流行RISC血统论,CISC出身的P6就算使出内转RISC指令的大招也矮了21264一挫。21264身上的许多设计特点,例如后端的多层bypass network,load指令的speculative issue等等,都是令人叹为观止的想象力铺就的手笔,许多被后来的微结构所借鉴(当然,这些是不是它的独立发明就另说了)。当我们要研究一个微结构时,Alpha 21264是一个很好的起点,因为它已经囊括了高性能微结构上面所应该出现的大部分主要特性,所以很多老师都会跟学生推荐它作为起步,Alpha逝去这么多年后仍被人津津乐道的另一个原因是许多关于Alpha芯片设计的文档资料通过种种途径流出,成为了后世研习微结构的经典教学案例,大家看到它的名字都觉得有些亲近和熟悉。&br&&br&两个侧记:&br&&br&Alpha的架构师们对指令级并行度的发掘之狂热,确实是今天其他任何团队都赶不上的,Alpha 21464(EV8)是我所知的传统OoO框架下唯一敢于挑战8-issue的,一个16-port的物理寄存器堆做得比一级缓存还大,几成怪物,终究是未能量产就倒下了。按现在单核心微结构的迟缓进展来看,这个世界上很可能不会再出现第二个Alpha EV8这样天马行空的构思了。&br&&br&某种程度上来说,Alpha也确实超前于时代一步,它的Chief Architect,Richard Sites在Alpha 21164的测试数据上发现IPC只有0.3不到,远低于超标量设计的期望,于是顶着当时红透半边天的ILP狂热党们的压力写出了一篇名为《It's memory,stupid!》的雄文登在Microprocessor Reports上面,警醒大家重视cache & memory子系统设计,这篇文章比日后借此成名的Sally McKee更早地指出了Memory Wall问题,可惜Alpha团队内部对此不以为然。
谢邀。DEC Alpha 21264是几乎每一本体系结构书都要评论一番的经典之作,但是若把它跟今日的Intel相比,那就是找错参考系了。关公武艺再高强也打不过今天拿枪的小孩子。Alpha的全盛期是上世纪90年代,在那个以指令级并行度称雄,人人都以20-issue CPU为目标…
来自子话题:
我是来打击题主的。&br&&br&首先,我注意到“能熟练使用C语言以及51、STM32等微控制器”,请问熟练使用C是指到什么程度?&br&&br&我有以下几个指标来考核一下:&br&&br&1、能独立编写超过1万行的模块/工程;能与其他人合作完成超过10万行的模块/工程;能掌握10万行代码的模块/工程的内部主要逻辑。&br&&br&2、熟悉Linux内核,至少熟练掌握一个驱动/模块的内部原理。&br&&br&3、在国内任何一个online judge平台上AC超过100道题&br&&br&4、能在纸上正确的写出无语法/逻辑错误的基本算法:冒泡排序/二分查找/链表基本操作。&br&&br&能达到上面的指标之一的,才能算是基本掌握,能达到两条或者更多的,才能算是熟练使用。一个都达不到的,对不起,你只是一个C语言爱好者。&br&&br&如果能达到上面的指标,往下看,如果达不到,那么先达到了再说。&br&&br&有人说嵌入式行业不招应届生,那是扯淡。华为中兴是不是嵌入式行业?招不招应届生?&br&&br&当然,仅有C语言的水平是不够的,还要有一些项目经验,以及熟悉诸如计算机网络、Linux内核等等的知识。&br&&br&关于找工作的问题,自己要摆正心态,我相信像华为中兴这些公司要求并不是特别的高,本科应届生好好训练一下是能进去的,但如果你自己不想去这些公司,非要做纯内核、纯嵌入式开发,那么困难就会很大,真正刚毕业就成为大牛的人实在是太少了,还是要从基础岗位一点点做起。&br&&br&另外,如果自己学校的机会少,去别的学校试试,去大一点城市,我上大学的时候工作是在西安找的,但我并不在西安。&br&&br&先从一个普通的coder做起,才有后面的东西。
我是来打击题主的。首先,我注意到“能熟练使用C语言以及51、STM32等微控制器”,请问熟练使用C是指到什么程度?我有以下几个指标来考核一下:1、能独立编写超过1万行的模块/工程;能与其他人合作完成超过10万行的模块/工程;能掌握10万行代码的模块/工程的…
来自子话题:
谢邀&br&&br&这件事的原因在于不同gpu厂家对所谓「核」的定义不一样,gpu不同于cpu,本来就对并行处理要求极高,设计中存在很多可以被称为「核」的东西&br&&br&moto这么说其实不太厚道,作为摩粉,我心里还是小失望的,那个坚持技术嘲笑诺基亚换壳嘲笑索尼品质低只配做体育用品的Moto,真的离我们越来越远了。&br&新的moto字母都为小写,总是让我联想起从AT&T到at&t的变化,沧海桑田,世事谁知呢?&br&&br&必须说明,只有PVR的所谓「mp」才是完整的gpu核心,arm的「mp」和其他厂商所谓的「核」都不能算完整核心。也就是说苹果,联发科,德州仪器,和三星5410使用的gpu所谓多核更接近与pc上sli或者cf的概念。&br&&br&但不管是哪家用几核去衡量gpu,确实如评论中所说,是个完全忽悠小白的概念。比cpu上的多核更忽悠的多,因为cpu上的多核其实很大程度上还是和性能正相关的。&br&&br&gpu是不能单纯用一个或者几个参数去作比较的,因为各家的架构相差极大,并不像cpu般相对统一,「核」数与绝对性能关系很小(其实一般大公司为了保留一些节操,都是自家产品相互比较,这时候很多概念就有了意义)。而且就算是理论性能很高,实际用起来也要看软件优化的折扣。&b&所以除非同一系列产品比较,否则所谓「核」数与gpu性能是基本没关系的&/b&&br&&img src=&/f0378e97daec0ffdc440aa_b.jpg& data-rawwidth=&578& data-rawheight=&722& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&/f0378e97daec0ffdc440aa_r.jpg&&&br&如果想深入了解,可以看看爱搞机的文章&br&&a href=&/1217-vv-gpu.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&拒绝忽悠 移动GPU全解读(一)&i class=&icon-external&&&/i&&/a&&br&&a href=&/1218-vv-gpu.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&拒绝忽悠 移动GPU全解读(二)&i class=&icon-external&&&/i&&/a&
谢邀这件事的原因在于不同gpu厂家对所谓「核」的定义不一样,gpu不同于cpu,本来就对并行处理要求极高,设计中存在很多可以被称为「核」的东西moto这么说其实不太厚道,作为摩粉,我心里还是小失望的,那个坚持技术嘲笑诺基亚换壳嘲笑索尼品质低只配做体育…
来自子话题:
显卡是一个很宽泛的名称, 单单把&市面上有哪些显卡&这个话题说清楚就已经不容易了. 根据楼主的问题这里不讨论Quadro和FirePro等产品线, 不讨论GRID等云计算的产品, 也不涉及Tegra等移动领域. 亦不关注笔记本芯片.&br&简单说一下现在消费级的由NVIDIA以及AMD提供显示芯片制作而成的桌面独立显卡产品, 也就是Geforce以及Radeon产品线. &br&&br&桌面独立显卡分三个级别: Enthusiast/Performance/Mainstream, 性能按照排列顺序递减&br&&br&1. Enthusiast &br&AMD: HD 7990&HD 7970 GHz Edition&HD 7950 Boost&HD 7950&HD 7870&HD 7850&br&NVIDIA: GTX 690&GTX Titan&GTX 680&GTX 670&GTX 660Ti&GTX 660&br&&br&2. Performance&br&AMD: HD 7790&HD 7770&HD 7750&br&NVIDIA: GTX 650Ti BOOST& GTX 650Ti&GTX 650&GT 640&br&&br&3. Mainstream&br&AMD: HD 6670&HD 6570&HD 6450&br&NVIDIA: GT 630& GT 620& GT 610&br&&br&命名规则要分开来讲.&br&AMD方面: &br&千位相同表示属于同一个系列的产品, 往往代表支持同样的API以及其他技术, 比如eyefinity等, 另外一般来说也代表芯片的制程相同. &br&百位相同表示使用的是同一个芯片, 但是也有例外, 比如HD 7790使用的是芯片代号是Bonaire, 而HD使用的则是Cape &br&十位的区别则在于是否使用完整版芯片以及频率的高低. 比如HD 7770和HD 7750使用的都是名为Cape的芯片, HD 7770使用的是完整版的Cape并且频率高一些, HD 7750则使用的是非完整版的Cape. 这样的结果就是HD 7770的性能比HD 7750高一些, 相对的功耗也会高一些&br&个位基本上不用&br&&br&NVIDIA方面:&br&前缀: 分为GTX, GTS, GT. 这个可以参考NVIDIA官网的描述:&br&&img src=&/74f1e77fb50aaf4fd7c2_b.jpg& data-rawwidth=&702& data-rawheight=&309& class=&origin_image zh-lightbox-thumb& width=&702& data-original=&/74f1e77fb50aaf4fd7c2_r.jpg&&前缀会对NVIDIA以及渠道商带来巨大的导向作用, 不扯远了. 由于不存在同样的数字名冠上不同的前缀, 比如不会存在GTX750, GT750, 所以不在意前缀也没什么问题&br&百位: 和AMD的千位一样, 表示产品的系列&br&十位: 性能由高到低划分&br&个位: 现在看来不是0就是5, 十位一样, 基本上性能5&0&br&后缀:&br&性能上 Ti BOOST&Ti&无后缀&SE. 举个例子, 性能上 GTX 560Ti&GTX 560&GTX 560 SE&br&&br&单从名字上是无从辨别NVIDIA使用的是何款芯片的, 比如名字看似区别很大的GTX 680/GTX 670/GTX 660Ti使用的均为GK104; 而仅仅多了两个字符的GTX 650Ti和GTX 650则分别使用的是GK106和GK107. 针对这个是好还是坏就是仁者见仁了, 智者见智了.&br&&br&多说一句, GTX Titan=单芯卡皇&br&&br&欢迎指正
显卡是一个很宽泛的名称, 单单把"市面上有哪些显卡"这个话题说清楚就已经不容易了. 根据楼主的问题这里不讨论Quadro和FirePro等产品线, 不讨论GRID等云计算的产品, 也不涉及Tegra等移动领域. 亦不关注笔记本芯片.简单说一下现在消费级的由NVIDIA以及AMD提供…
来自子话题:
&b&第二次更新&/b&&br&&br&&b&受到诸位的肯定,受宠若惊。本人也是在日常使用中对其有些了解,对这方面较为感兴趣而已,因此权当抛砖引玉。如有错漏,还请指正。&/b&&br&&br&首先解决你在任务管理器中看不到该进程的问题。如下图所示:&br&&img src=&/9b4af1e3dfdd70bfc62e92a87f82b5ca_b.jpg& data-rawwidth=&412& data-rawheight=&586& class=&content_image& width=&412&&需要选中下方的”显示所有用户的进程“才能看到多个svchost.exe。&br&&br&究其原因,是因为svchost.exe的全名是&b&Windows服务宿主&/b&,不是用户进程,而是用户名为SYSTEM、LOCAL SERVICE或NETWORK SERVICE的系统进程。&br&&br&所谓服务,指的是保障系统正常运行的一系列底层与后台任务流程。svchost.exe作为其宿主,通过调用不同的系统模块,执行不同的命令行来执行不同的任务。可以认为它是一个空壳,通过外部的,模块化的,分散化的内容来发挥作用。&br&&br&下面来举例。通过开始——运行——services.msc可以打开如下图所示的窗口,即为系统提供的管理工具(家庭版系统中可能不存在该文件):&br&&br&&img src=&/f35782cffa3ec85e3402_b.jpg& data-rawwidth=&1280& data-rawheight=&760& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&/f35782cffa3ec85e3402_r.jpg&&&br&随机打开一个,例如下图所示:&img src=&/fce966a1e7e2abcbf852_b.jpg& data-rawwidth=&420& data-rawheight=&442& class=&content_image& width=&420&&&br&&br&注意可执行文件的路径及其后的参数。这是一个典型的例子。但是并非所有服务都通过svchost.exe来执行。如下图:&br&&br&&img src=&/35513f8efb6f9a7dec50_b.jpg& data-rawwidth=&420& data-rawheight=&442& class=&content_image& width=&420&&&br&在这里,我需要强调一点:&b&Windows下的服务通常来说都发挥着重要的作用,但并非完全不可或缺。svchost.exe也不例外。&/b&&br&&br&我的结论为:当svchost.exe&b&长时间&/b&占用&b&大量&/b&CPU时,一定说明系统出现了问题。&br&&br&具体的排查方法,可以按照下列步骤进行:&br&&ol&&li&在任务管理器中找到对应的svchost.exe,如下图所示:&br&&img src=&/df5cb46742_b.jpg& data-rawwidth=&412& data-rawheight=&586& class=&content_image& width=&412&&&br&&br&&/li&&li&点击右键,选择“转到服务”。例如下图所示:&br&&br&&img src=&/57d46fcfe0c953a08a27d_b.jpg& data-rawwidth=&412& data-rawheight=&586& class=&content_image& width=&412&&&br&&/li&&li&根据服务的必要性与重要性,根据情况选择结束进程或进行下一步分析。具体分析工具可以选择百度搜索,也可以手动使用Process Monitor等工具进行占用分析。具体原因可能多种多样,无法给出统一的答案,很可能分析半天仍没有头绪。这也正是很多情况下,长时间的分析并不如重装系统来得有效的原因。&br&&br&&/li&&li&总而言之,&b&一般来说&/b&,问题可能出在以下几个方面:&br&其一,长期读取某一个文件,造成死循环,导致CPU占用率较高。我遇到过Vista下长期读取hosts导致资源占用过高的情况。&br&其二,网络资源占用过大。这也是最常见的原因。这与DNS、网关、局域网状况等有多方面的关系,不可一概而论。&br&其三,其他问题。其实这部分我说不出来……简而言之是各种其他千奇百怪的问题,这种情况下,重装系统是唯一可能的选择。&br&&br&&/li&&li&&b&我们需要记住,解决一切计算机问题的主要原则是:具体问题具体分析。&br&我们无法对问题表现相同的的问题提出一个通用的解决方案,但是,我们可以从多个角度下手,对个别问题作出自己的判断。&/b&&/li&&/ol&
第二次更新受到诸位的肯定,受宠若惊。本人也是在日常使用中对其有些了解,对这方面较为感兴趣而已,因此权当抛砖引玉。如有错漏,还请指正。首先解决你在任务管理器中看不到该进程的问题。如下图所示:需要选中下方的”显示所有用户的进程“才能…
来自子话题:
&img src=&/68e0ff7f398b1a90b733ba17c59ce164_b.jpg& data-rawwidth=&796& data-rawheight=&322& class=&origin_image zh-lightbox-thumb& width=&796& data-original=&/68e0ff7f398b1a90b733ba17c59ce164_r.jpg&&&br&别笑,CPU 和内存的热交换在组装服务器(尤其是大型服务器)的时候是个很正经的需求,毕竟那么大台机器坏了一个 cpu 总不能停机来修吧……&br&嗯,现在的热插拔接口拆 cpu 问题估计不大,但是拆内存就有一个问题:外接内存里的数据要怎么才能恢复到笔记本里呢?服务器系统处理这种问题是都是这个流程:&b&停分配→转移内存→断电→断散热&/b&,你外接 cpu 那 0.几秒的拆卸时间估计不够。&br&不过如果是某种带安全措施的卡扣式接口,这么做出来估计问题不大。&br&当然,大前提是 Intel 给出不对称多处理器的方案来。&br&&br&ps. 有关线缆&br&为什么一定要用电缆呢?做成 dock 的形式就很好嘛,反正你 cpu2 肯定要外接电源的,正好还能给笔记本充电。&br&&img src=&/cfbdae3ecf7daa_b.jpg& data-rawwidth=&800& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/cfbdae3ecf7daa_r.jpg&&这个是 Z620 里 cpu2 部分的结构,那个接口里跑了两条 QPI。
别笑,CPU 和内存的热交换在组装服务器(尤其是大型服务器)的时候是个很正经的需求,毕竟那么大台机器坏了一个 cpu 总不能停机来修吧……嗯,现在的热插拔接口拆 cpu 问题估计不大,但是拆内存就有一个问题:外接内存里的数据要怎么才能恢复到笔记本里呢?…
来自子话题:
刚看完Stanford主页上那片报道。一开始听起来挺fancy,不过细细一看 如果从集成电路角度来看,it looks like rubbish to me。原因就是,从IC design或者从computer architecture的角度来讲,好像他们研究小组自己创新的内容为零 (注意他们是bio-engineer 不是 IC designer)。从报道中描述来看,他们使用用的都是已经成熟的集成电路设计技巧和制造工艺。他们自己做的仅有的设计就是画画PCB版,然后上面放16个核。据某英文报道所说 每个核是他们自己设计,用模拟电路实现计算,每个核里有16x256x256个模拟电路做的神经元。 然后核与核之间的通讯模式可能他们用数字电路的方式定制了一下, 依据就是他们之前对于大脑皮层神经网的认识。当电路板被代工厂做出来后,他们再冠以一个貌似很牛逼的名词:神经网路 (Neurogrid),然后给出少许的性能指标说自己的设计有多么多么高的原创性,性能多么多么牛逼云云。&br&&br&鉴于这个问题归类属于computer architecture,所以在这里从 VLSI Designer的角度评价下他们仅有的那点学术创新: 生物工程研究人员很早已提出用电子线路来为大脑皮层神经网路建模的想法。&br&神经形态工程学(Neuromorphic engineering),又名神经形态计算,是由米德(Carver Mead)在80年代后期提出的概念,描用永超大规模集成电路系统(一般是模拟电路)来'模仿’存在于神经系统中的神经生物学架构。这是个新兴的交叉学科,融汇了数学物理生物学计算机科学和电子计算机工程等等许多学科。近年来,想法在实践中早已验证可行, 该术语的概念被扩充,用于描述那些实现神经系统模型的数字、模拟或者数模混合超大规模集成电路和软件系统 (比如用于感知,马达控制,或者多传感器集成)。从一个超大规模集成电路设计者的角度来看,斯坦福提出的10万倍功耗降低是可笑的。我们想,最初的研究人员仅仅是为了验证想法可行,并且很可能由于知识领域和实验设备的限制,使用的工具是超级计算机。 这个Neurogrid的小组,把前人的想法直接拿过来,用一个PCB版上多核的方式实现。他们宣称功耗降低了十万倍。板级系统的功耗比超级计算机低,这不是屁话吗。降低十万倍又怎么样,这个横向比较有意义吗。话说现在NoC(Network on Chip 一个芯片上好多个核形成网络)都已经研究的比较透彻的时代了,我们甚至可以这想法都集成到一个芯片上呢,然后宣称功耗比这再低10-20倍。但是有意义吗?他们又宣称运算速度提高了多少多少。。。如果这运算速度的提升是由他们提出的新理论(比如神经算法的创新)带来的,相信这是让人佩服的,可惜从硬件设计者的常识出发,大家都知道在计算机上用软件来仿真某个硬件功能的速度完全和直接在功能等价的专用硬件上来测试不是一个数量级的。。(这就是为什么有些时候FPGA都被拿来做ASIC的prototyping test)或者再说直白点,任何软件功能都可以用专用硬件实现,速度快n个数量级,但是成本也高几个数量级。就看有钱烧没。所以他们做出专用的系统速度比通用系统上用软件跑这是必然的。综上,我认为他们贴出的那些最吸引民众眼球的几个数据恰恰不是最值得大张旗鼓吹嘘的创新。他们的contribution仅仅是把前人的想法做成了实物。当然,项目成果也不能一棒子拍死。做出来的这个东西对于今后大脑原理的研究应该有用,从生物工程研究人员的角度来讲,有这个系统作为实验平台总比每次要仿真时都连接到超级计算机上被迫和别人一起排队等着几天以后出结果强。&br&&br&总之,搞学术的都有个通病:能吹牛逼。不会吹牛,就不能忽悠倒金主;忽悠不倒金主,就申不到项目;申不到项目,就拉不到资金;拉不到资金,就没有RA和PhD student来给你当高智商廉价劳动力;没有廉价劳动力,就没发表没有成果;没有成果就没法评上终身教授;评不上教授更加拿不到资金,从此一直恶性循环。 一句话 搞学术要想吃香,要学会吹牛,而且要会拉大旗扯虎皮。牛吹得越大,虎皮扯得越霸气,就越吸引眼球。 比如这个报道 把性能指标吹得天花乱指,而且放在stanford主页上, 连远在太平洋彼岸的天朝都瞬间加了关注,还拿到知乎上讨论讨论。我猜这项目如果是放在国内高校一样能做,但是关注度就大大降低了。&br&&br&最后本问题的重心其实和微处理器并不直接挂钩。如果有人专门搞生物工程神经网络的有不同建议,欢迎拍砖。
刚看完Stanford主页上那片报道。一开始听起来挺fancy,不过细细一看 如果从集成电路角度来看,it looks like rubbish to me。原因就是,从IC design或者从computer architecture的角度来讲,好像他们研究小组自己创新的内容为零 (注意他们是bio-engineer …
来自子话题:
有意思,大多数同学都不赞成收拾桌面,认为乱乱的桌面有助于找灵感。不知道各位的电脑文件夹平时注意整理不,是觉得乱乱的有助于激发灵感呢,还是想找什么文件一下就能找到效率更高呢?&br&&br&我倒是觉得桌面凌乱是电子工程师的大敌(说完赶紧低头看看桌子)。这里说的整洁不是把所有东西都藏到桌子底下,找的时候翻半天。恰恰相反,有条理地归类可以让你想找个2k欧的电阻就能一下从电阻的抽屉里找到,想找万用表了就在你标着万用表的抽屉里。灵感(如果这个灵感真的那么重要的话)来时想第一时间实践,能够有条有理地找到该找的玩意才是最重要吧。也许桌上的某个芯片激发了你的灵感,那剩下的元器件你去哪找呢?开了封就找不到的电容三极管实在太多了吧。&br&&br&&b&关键的一点是安全&/b&。现在的芯片越做越小,容易消失于桌面不说,一个不小心就被静电搞挂了。焊接电路的废弃管脚和焊锡,很容易飞的到处都是,在焊接完成后要清理桌面扫掉这些短路小魔鬼。保持桌面整洁可以尽量避免不必要的灰尘和静电,这些都是微电路的大敌。&br&&br&此外,对我个人而言,干净的桌面有助于及时&b&“保存”我的进度&/b&。有时搭个原型机要几天到几个月,每天结束时桌上放的都是个未完成品。我可以在离开实验室时保留它最后的样子,也可以把它稍微整理一下,从最危险的地方(桌子边缘,容易被胳膊不小心碰到的地方,周围有杂物会的地方等等,如果大大咧咧一些边上有液体的地方)移开,简单地收纳到临时盒子里。我建议至少在周末(2天以上不在实验室)的时候这样做。这样看起来是规整&b&东西&/b&,实际是在规整&b&想法&/b&。这会强迫你按时记录进程,把凌乱的进度整理好,因为几天(没碰实验)后的你就仿佛崭新的一个人了(无褒义),这时看着陌生而熟悉的桌面不如看看前几天的自己留下的记录拾起思绪快一些。&br&&br&收拾桌面的利器是下图这种&b&小&/b&塑料收纳盒。(评论里有同学问,请搜“元器件 收纳柜”吧,我也不知道叫什么)&br&&img data-rawheight=&300& data-rawwidth=&300& src=&/ed4a42df13c43eb9d0bd94_b.jpg& class=&content_image& width=&300&&&br&占地不大,充分利用空间,而且一下就能看到里面装的是什么。注意抽屉要多而小,因为电器器件就是小而杂,20个抽屉也轻松装满。给每个抽屉贴上标签,几百欧电阻啦,多少法电容啦,焊枪啦,松香啦,焊锡啦,面包板啦,PCB啦,万用表啦,从哪里拿出来用完再放到哪里。如果有师弟师妹借用就留个带他名字的字条在抽屉里(当然是说万用表了,电容电感怎么还啊),东西没了也知道去哪里找。哪样器件缺了也能及时补充,避免用的时候抓瞎。&br&&br&如果桌子够大,东西又多,可以买它的加大版,满足你各种需求。&br&&img data-rawheight=&300& data-rawwidth=&274& src=&/aabf932ea4_b.jpg& class=&content_image& width=&274&&&br&如果你有好多打印的Paper和Datasheet在桌子上,买一个整理文件的架子。&br&&img data-rawheight=&685& data-rawwidth=&685& src=&/ae31cd2d1db_b.jpg& class=&origin_image zh-lightbox-thumb& width=&685& data-original=&/ae31cd2d1db_r.jpg&&&br&另外强烈建议不要在弄电路的桌子上喝水吃东西,害处我也不用细说吧。如果没有吃东西的地方的话就在地上或者屏幕后边整理出一块地方,放水和食品用,吃的时候离桌子远点,对自己健康对仪器健康都好。
有意思,大多数同学都不赞成收拾桌面,认为乱乱的桌面有助于找灵感。不知道各位的电脑文件夹平时注意整理不,是觉得乱乱的有助于激发灵感呢,还是想找什么文件一下就能找到效率更高呢?我倒是觉得桌面凌乱是电子工程师的大敌(说完赶紧低头看看桌子)。这里说…
来自子话题:
1.arduina是一块硬件开源的开发板,这块板子的处理器为Atmel的AVR系列(与下面说道的ARM架构不同)&br&2.ARM指的是一种处理器架构,一种处理器核心,同时也是ARM公司的名字,也是ARM技术的名字。作为处理器架构与其相异的有X86 PowerPC等,我们常见的一些手机芯片,和一些控制芯片,很多采用的都是ARM架构,例如手机领域中Nvidia的Tegra系列 三星电子的猎户座系列。在工控领域中常见的意法半导体的STM32系列等 都是ARM架构 。&br&3.树莓派指的是一款硬件开源的,现在非常流行的小型计算机系统,其本质也是一块开发板,其芯片为博通公司的BCM2835芯片,这款芯片采用的就是上述所说的ARM架构,&br&4.单片机,大学时代对单片机的第一印象就是著名的C51系列。单片机所指的是,flash,ram,一些通用外设都集成于一个芯片上,现在很多的芯片都是采用这种Soc系统,即System On Chip 片上系统,即芯片上集成许多资源,这些资源基本可以构成一个最小系统。&br&&br&Ps:本人语言表达能力拙计,如有不足不清之处,望海涵指正。
1.arduina是一块硬件开源的开发板,这块板子的处理器为Atmel的AVR系列(与下面说道的ARM架构不同)2.ARM指的是一种处理器架构,一种处理器核心,同时也是ARM公司的名字,也是ARM技术的名字。作为处理器架构与其相异的有X86 PowerPC等,我们常见的一些手机芯…
来自子话题:
libc 的 sqrt 直接调用 x87 的 fsqrt 指令,当然快啊&br&你可以写个用汇编的:&br&&div class=&highlight&&&pre&&code class=&language-c&&&span class=&kr&&__asm&/span& &span class=&p&&{&/span&
&span class=&n&&FLD&/span& &span class=&n&&x&/span&
&span class=&n&&FSQRT&/span&
&span class=&n&&FST&/span& &span class=&n&&x&/span&
&span class=&p&&}&/span&
&/code&&/pre&&/div&卡马克写那算法是因为当时的 x86 芯片浮点不是标配,用软件方法模拟很慢。
libc 的 sqrt 直接调用 x87 的 fsqrt 指令,当然快啊你可以写个用汇编的:__asm {
}卡马克写那算法是因为当时的 x86 芯片浮点不是标配,用软件方法模拟很慢。
来自子话题:
题主的问题可以分为三类人分别考虑:&br&&br&1. 软件工程师&br&2. 电子工程师&br&3. 软件与电子的跨界工程师&br&&br&软件工程师当前的工作环境还算不错,无论是就业还是薪资。这个相信题主清楚。&br&&br&电子工程师以我所见在就业和薪资上是比软件工程师差一点的。创业公司少,大公司的需求也不是那么大。电子的很多论坛就偶尔有讨论如何转行做软件。一些高端电子技术上也大量的应用软件技术,比如ARM、视频处理、FPGA、DSP。&br&&br&软件与电子的跨界工程师会路子更宽一些。电子技术的意义在于与现实世界更宽的接口与控制能力。软件与电子的结合可以产生很多新的领域和机会。比如汽车电子、穿戴式设备、机器人等等。当然前提是软件的技能不能放,然后去学电子技术。&br&&br&题主既然已经在学FPGA,可以认为一些电子技术的基础已经掌握了。至于电子领域一些实践性的技能不知道掌握的如何,但是推荐要自己学习和掌握的技能:&br&&br&1. 模拟电子技术:这玩意玩深了就是无底洞,尤其是射频等方向,建议学习到三极管、放大电路耦合、运算放大器作为基础&br&2. 数字电子技术:没跑的重要性,CD4000系列和74系列至少要了解几十个型号的用途&br&3. 单片机:51啥的就免了吧,鉴于datasheet友好性和开源支持,建议从AVR玩起&br&4. ARM:未来主流,可以从STM32F103C8T6的开发板开始玩玩,我是选的arm-gcc+scons+openocd这条路,其难度不建议题主尝试,可以尝试keil啥的(我没用过)&br&5. PCB设计:想做点靠谱的事情,躲不开的,我是用KiCAD&br&6. FPGA:高速电路接口与逻辑,高性能计算,玩好了很有用&br&7. 嵌入式OS:FreeRTOS之类的,如果结合CS的计算机操作系统课程一起学会很好&br&8. 嵌入式Linux与内核驱动开发:这个几乎就是软件了,会涉及到学很多芯片的具体控制方法&br&&br&我就是按照如上的过程学习的,当前算是搞定了12345,正在看7。未来对于6和8很纠结要不要继续学下去。&br&&br&电子技术的范畴很大,需要学的内容很多。我一直有做笔记的习惯。我做了170万字的Python笔记就可以在圈子里小有名气了。加上80万字的Linux、17万字的架构设计笔记就能在软件业胜任不错的职位。但是以我学电子的进度,模电数电之类的42万字,AVR芯片34万字,ARM芯片64万字,嵌入式操作系统13万字。我仍然感觉电子方面很多想做的事情做不了,对自己的无知感到无助。&br&&br&以我的速度,每年写大约100万字的笔记,学到现在的状态需要全职1年半。可见时间成本不是个小事情。除此外,买焊接设备、开发板、芯片、打印机、制版机、示波器,成本是不低的。我家里有个电子实验室,主要玩电子和机器人,总共花了近10万了。如果要玩的广泛和花样繁多,需要有个已经可以糊口的工作。&br&&br&如果题主仍然愿意继续走下去,那么需要看的书,学的东西是很多的。做好心理准备,加油!
题主的问题可以分为三类人分别考虑:1. 软件工程师2. 电子工程师3. 软件与电子的跨界工程师软件工程师当前的工作环境还算不错,无论是就业还是薪资。这个相信题主清楚。电子工程师以我所见在就业和薪资上是比软件工程师差一点的。创业公司少,大公司的需求…
来自子话题:
总算有一个我的专业相关的问题了。&br&我假设大家都知道什么是DSP和DMP,所以先来说说DSP投放与DMP之间的关系。&br&&br&PC端的广告无论是DSP还是DMP定位受众大多都是采用 cookie,但是由于多数情况DSP与DMP并不是一个公司,所以同一个受众在两家公司的 cookie id 是不同的。&br&&br&这里就有了cookie match , 只有双方 match 过的 cookie 才能用于投放,比如 DSP 公司有10亿 cookie id ,DMP 公司有10亿 cookie id ,但是两家公司 match 过的 cookie id 只有1亿,那么实际能投放的受众最多1亿。&br&&br&回到题主的问题, DMP 怎么影响投放的? 由于 RTB 投放有严格的响应时间限制,所以实时请求 DMP 是不现实的,所以大多是离线提供服务。通常应用 DMP 的方式是,DSP 公司给出受众的描述(例如:年龄、性别、职业、爱好),然后由 DMP 公司找出相应的受众 cookie id ,并且利用保存的与 DSP 公司的 mapping list 转换成 DSP 公司的 cookie id 并传给 DSP , DSP 公司再推入竞价核心程序,做加权提价。&br&&br&整个环节中最为重要的是 cookie match,match 比率过低就没有利用 DMP 的意义了。&br&&br&回答评论: &a data-hash=&ae69ec04bb890deecc48ad2f0beb8a32& href=&/people/ae69ec04bb890deecc48ad2f0beb8a32& class=&member_mention& data-editable=&true& data-title=&@叶士铭& data-tip=&p$b$ae69ec04bb890deecc48ad2f0beb8a32&&@叶士铭&/a& 提出了个好问题:移动端定向手段有哪些?&br&首先 cookie 还是现在的主流,但正在逐渐退出。&br&apple 和 google 都在为摆脱 cookie 做铺垫和准备。 IDFA 和 ADID 就是为摆脱 cookie 而诞生的。 apple 早在 ios6 的时候推出 IDFA 目的是解决设备追踪问题,随着 ios6 早已普及, apple 设备的定向脱离 cookie 的日子也不远了。&br&但是 google 有些尴尬,由于对 android 生态园没有绝对的控制权力,所以究竟什么时候能完全用上还不确定。&br&&br&现在的回答问题,每个 adexchange 都有自己的受众标示方式,同时有的会传回 IDFA 和 ADID,&br&所以除了 cookie 以外,还有 IDFA 和 ADID 作为补充的定位方式。
总算有一个我的专业相关的问题了。我假设大家都知道什么是DSP和DMP,所以先来说说DSP投放与DMP之间的关系。PC端的广告无论是DSP还是DMP定位受众大多都是采用 cookie,但是由于多数情况DSP与DMP并不是一个公司,所以同一个受众在两家公司的 cookie id 是不同…
来自子话题:
楼主只是有一个问题没搞明白:主频与性能的关系,楼上几乎所有人都犯了一个错误:单纯的主频与性能的比较来说,与CISC/RISC架构是无关的。&br&&br&主频是什么?主频是CPU的一秒钟的时钟周期,而楼主的最需要纠正的观点是:&strong&主频不等于一秒钟执行的指令个数&/strong&。&br&&br&甚至在&strong&同一个厂商&/strong&的产品中,&strong&主频的高低都不是执行指令速度的衡量指标&/strong&。&br&&br&&strong&主频只是影响性能的指标但不是性能的决定性指标&/strong&。&br&&br&下面是技术细节的分析:&br&&br&关于intel CPU里每条指令的执行周期,可以参考这个官方文档:&br&&a href=&/content/www/us/en/architecture-and-technology/64-ia-32-architectures-optimization-manual.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Intel速 64 and IA-32 Architectures Optimization Reference Manual&i class=&icon-external&&&/i&&/a&&br&&br&在Appendix C里有详细的描述,我这里截取部分:&br&&br&(注:表中列出的应该是最新的CPU架构下的性能)&br&ADD/SUB执行周期是0.5-1&br&INC/DEC执行周期是1&br&MOV执行周期是0.5-1&br&PUSH/POP的执行周期是1.5&br&CALL/RET是5个周期&br&浮点指令的周期一般都是3-5左右&br&乘除指令周期都很长,一般都在10以上。&br&&br&也就是说一个2G主频的intel CPU(估计要core2和以后的架构),一秒钟可以执行2G条INC指令,并且是在没有启动流水线等任何优化的情况下,而如果采取流水线并发的话(intel指令集里的指令转化为微指令以后都是可流水化的,自己去读手册),可以把性能再提高3倍,也就是6GHz。&br&&br&---------------intel和arm的分割线---------------&br&&br&再看ARM架构下,ARM的资料我找不完整,以ARM7为例,ARM7是三级流水,加减运算都是1个周期(吞吐率是三倍,与intel相同),LDR(相当于intel里的MOV)则需要2-8个周期。&br&所以,即使是同等主频下,intel的某些指令是比ARM还要快的(当然,有些指令也会更慢)&br&&br&---------------RISC和CISC的争论---------------&br&&br&既然有人提了,那么就说说这个问题:&br&&br&RISC-精简指令集的一个特点是指令等长,32位CPU都是32位的指令;&br&CISC-复杂指令集的区别就是一个指令可能是8位,16位,24位,32位,40位……甚至有超长指令的情况。&br&&br&RISC的CPU设计更简单,因为指令是等长的,而CISC指令不等长,CPU更复杂。&br&&br&但是RISC有一个可以说是很严重的缺陷,处理常数的立即数和地址的时候代价比CISC要高。&br&&br&写一个最简单的C函数:&br&&br&int abcd()&br&{&br&
register x = 0x;&br&&br&}&br&&br&编译成intel x86汇编是:&br&&br&.text:
ebp&br&.text:
ebp, esp&br&.text:
eax, h&br&.text:080035DA
ebp&br&.text:080035DB
retn&br&&br&编译成ARM CORTEX-A7的汇编是:&br&&br&.text:0000429C
R12, SP&br&.text:
SP!, {R11,R12,LR,PC}&br&.text:
R11, R12, #4&br&.text:
R5, #0x7800000&br&.text:000042AC
R1, #0x&br&.text:
R0, R3&br&.text:
SP, {R11,SP,PC}&br&&br&因为ARM一条指令是32位,所以ARM无法一次性载入一个32位立即数,至少要分成两部来做,这样就比x86汇编慢,同样,对于一个32位的偏移地址也是一样,虽然ARM寄存器多,但在多数单条指令上,ARM性能不占优势。&br&&br&---------------总结---------------&br&&br&1、主频跟指令速度无关,指令执行个数=主频/指令时钟周期;&br&2、ARM在时钟上不占优势,甚至有些处于劣势;&br&3、ARM指令在编译后,指令个数比intel的更多。&br&所以以上三条就可以看出来,同主频下,单位时间里ARM执行的有效指令都比intel的要少,所以处理能力上必然有差异。&br&至于缓存什么的,intel做的比ARM稍微好点,就更增加了二者的差距。&br&当然了,我不是说ARM的不好,ARM架构在省电方面做的很强。&br&-完-
楼主只是有一个问题没搞明白:主频与性能的关系,楼上几乎所有人都犯了一个错误:单纯的主频与性能的比较来说,与CISC/RISC架构是无关的。主频是什么?主频是CPU的一秒钟的时钟周期,而楼主的最需要纠正的观点是:主频不等于一秒钟执行的指令个数。甚至在同…
来自子话题:
要看什么脑子
要看什么脑子
来自子话题:
什么回答都有啊……&br&&br&“64位占用更多内存”是对的,翻倍是不对的。编译器默认会按64bit为最小单位存取数据,意味着标志位之类的东西会多占空间,字节对齐也会浪费掉一些空间,但是带来对连续大数据量存取的高性能,是值得的。&br&&br&对于排名第一的回答,我觉得前面部分挺好,后面畅想用arm反击intel我觉得还是不现实的。&br&&br&我觉得Apple存在这么一个希望,但是现实很残酷,intel在桌面,服务器,工控领域的地位难以撼动,IDF一大票低功耗技术,酷睿,Atom和新的“夸克”从各个方面阻击和包夹ARM,intel在IC行业的情况类似于Apple在手机行业,设计,工艺通吃,架构独有(请忽视AMD吧),产能和工艺抛离对手1代到一代半的节奏,并且差距还在拉大。&br&&br&好像看到有传闻说当年教主执意要用intel和x86来做手机,但是被死谏更换ARM(见于某知名屌丝电工论坛),貌似教主还是看好intel的,之前也有见到说Apple收购IC设计组建团队时候对intel不接受其建议的抱怨,说明之前Apple是有意合作的。intel在X86架构都有独到造诣,有成熟完善的工艺和产能,只是在功耗上打了个败仗,翻身的节奏有点慢,但是也在奋力追赶了。&br&&br&Apple在未来想保持其独特性和领先性,我觉得很明显的一步棋就是投靠intel,intel需要大量资金保持工艺如期升级和扩充产能,apple需要独特于android和其他一众机型的硬件,二者最为合拍。&br&&br&唯一尴尬的是Apple自己的arm团队。
什么回答都有啊……“64位占用更多内存”是对的,翻倍是不对的。编译器默认会按64bit为最小单位存取数据,意味着标志位之类的东西会多占空间,字节对齐也会浪费掉一些空间,但是带来对连续大数据量存取的高性能,是值得的。对于排名第一的回答,我觉得前面…
龙芯根本就没什么市场,说不说也没什么必要,还是说说海思吧,问题本身就有点瑕疵K3V2是AP,不单单是CPU.AP里面有CPU/GPU和一堆控制器USB/LCD等等。K3V2是一颗4核A9的AP。&br&目前海思绝对是国内最大的AP厂商,但国际大厂差距甚远,国内应该是高通和MTK,占据了8成以上,目前还是自产自销,当然除了CPU还有基带业务,基带也是需要CPU的。其实海思做CPU已经很久了,以前只是给内部供货,或者做基带/数据卡,不为终端消费者所知道而已。最近几年大业务(电信服务器)发展缓慢,经济危机,没升级需求,华为想推自己的品牌做终端,进行转型,才逐渐让消费者知道,实际上海思已经给国内国际大厂贴牌设计过很多年,这也算是积累。业务背景扯完,说点技术的。&br&现在做CPU,不单单是一套指令集的问题了,其实设计一套指令集很简单,大学教材里面都有,至于搞出来有没有人用,那就是另外一回事请了,即使是好东西,也不一定有人用,ARM和MIPS就是很好的例子。这玩意涉及到整个生态系统的构建,比如业界有没有大佬采用你指令集,周边配套是否齐备,你不能指望个一个种水稻的农民给你来份满汉全席,得有个产业配合。所谓指令集,也就是架构IP,现在国内公司只能靠买了,基本都是ARM,毕竟他产业链比较全。好在ARM现在也推出架构授权了,不过这玩意价格不菲,但买了就可以改ARM的架构实现,高通就是先例,可以搞点创新。&br&买来架构,你还只是个CPU,一个AP需要搭配很多周边器件,GPU,LCD,USB都需要集成,至于集成什么是需要看你产品定位,需要什么功能,把这些东西都买齐了,你可以开始建模了,所谓建模就是把这些东西连起来,验证功能的正确性,然后用FPGA来验证硬件,FPGA没问题了,把生成的网表文件交给台电,中芯去代生产。流片回来之后,开始点芯片,移植操作系统,托Google的福,android已经把90%以上软件工作都已做完,软件生态系统也已经建好,当然你要用其他的操作系统你就得衡量衡量工作量。后面就是用这个AP去搭配外设去生成终端消费产品了。&br&目前流行大厂AP都有自己的独门秘笈,高通强在通信,做手机,特别是3G手机,你绕不开他专利,都得交份子钱,和基带集成好。MTK强在集成,廉价的生态系统,出货快。其他的都是小鱼小虾,宣传的不错,都有自己的卖点,但是量不大。&br&说到完全自主研发芯片,振兴民族产业,个人感觉现在意义不大,喷子喊喊口号而已。完全可以在别人现有的基础上改造创新,一方面企业需要盈利,这样做成功概率比较高,另一方面重复发明轮子对人类贡献也不大,要想骗国家钱那是另外的事情。
龙芯根本就没什么市场,说不说也没什么必要,还是说说海思吧,问题本身就有点瑕疵K3V2是AP,不单单是CPU.AP里面有CPU/GPU和一堆控制器USB/LCD等等。K3V2是一颗4核A9的AP。目前海思绝对是国内最大的AP厂商,但国际大厂差距甚远,国内应该是高通和MTK,占据了8…
来自子话题:
&b&下面以一种喜闻乐见的方式回答倍频,外频,分频,锁频,超频等等各种X频,FSB,QPI,DMI,PCI-E将会友情客串:&/b&&br&&b&&br&&/b&很久以前,科学国出版业有关部门(计算机)有位领导,人称中央处理器(出版业我说了算,非常中央,又称CPU),牢牢占据着有关部门的首脑位置,这个有关部门代号叫做主板,里面分为好多科室,有大量收集歌颂科学界第一大党等待出版用来教化愚民的文章的科室,人称硬盘科,硬盘科通过SATA(硬盘接口)走廊来到主走廊(总线)上,距离领导挺远还要过个长桥,人称南桥,所以领导需要的时候(CPU发出加载命令)就把资料交到离领导比较近的科室,这个科人称内存科,过了南桥经过DIMM(内存插口)走廊就到,虽然面积小存不了多少东西,但是跟领导挨得近,就隔着一个叫北桥的短桥,交流起来非常方便,(后来硬盘内存关系好了,通过DMA绿色通道,可以不通过领导指示传递资料),内存科过了北桥穿过&b&FSB&/b&走廊把资料交给领导之后,领导开始以他卓越的才能开始审核,审核通过的话,再穿过FSB(前端总线)走廊,跨过北桥,经过PCI-E(显卡接口)走廊,把资料交给RM日报(GPU)这个先进群众最喜欢看的报纸排版,排版单位人称显卡科,排版后放到库房(显存)然后交到显示器科发行,随后群众就能5毛一份满怀喜悦的看报纸了,当然有些是内参,直接返回给内存科就行,如果需要,内存科还会把常用的内参放到领导桌上,这个桌子人称片上缓存,根据距领导的距离(有的伸手就能够到,有的还得伸腰)分为1级缓存(L1),2级缓存(L2),然后次常用的内存科也会保留一些备份,然后就不用每次跑去找硬盘科要,浪费时间,如果审核不通过呢,有时领导发现文章很离谱啊(出现异常),就会找内存科的相关人员询问(异常处理程序),如果没人承担责任,领导再一看呢作者是XXX的小舅子(应用程序出错),领导就自己把文章扔到垃圾桶里,不再追究,继续办事(终止程序,继续运行),如果发现文章作者是临时工(内核程序出错),就大发雷霆,停止办公(蓝屏),还好最近升级了萝卜招聘机制(操作系统升级)小舅子越来越多,所以蓝屏少了,维稳工作也起效了,这就是最初的部门原型。另外还有小道消息说外来的东西(IO输入,键盘啥的)很多都会被领导截获(中断),并且交给有关部门(中断表)来处理,这也保证了领导绝对权威。&br&&br&刚开始呢,领导还没学习XXX理论,因此没有打通任督二脉,批文件的速度太慢,所以就在北桥上贴了一个全部门送文件的频率指南,要求广大成员深入领会,省的中间出现不同步的现象(内存--FSB--CPU,CPU--FSB--内存,分别对应读内存,写内存,CPU和内存为源和目的,FSB是路径),这个频率人称外频(系统基准频率),南桥由于天高皇帝远呢,所以没有深入学习告示精神,声称我们地方人员愚钝,达不到领导您的神功,通过分频(降频,分意为小于1的纯分数)大法,整天喝茶看报也没人管(例如PCI最近还是33.3Mhz),这个时候RM日报也不干了,你让我天天看这些东西,看得多了,会折寿啊,领导不敢怠慢,毕竟宣传工具很重要啊,人民喉舌的说,所以订下修正草案,规定RM日报可以不受外频影响,独立保持一定工作强度(锁频,如PCI-E接口频率一般都会锁到100MHz),只有全部门加班(超频)之时方才适当增加RM日报频率,因此首先同步的是内存频率,FSB频率,以及CPU频率,用的都是外频。&br&&br&后来领导发现,这不对啊,人们一直跟我说FSB走廊特别挤(前端总线频率需要高于外频),于是召开第N届M次全会,规定为了加强办事效率,FSB走廊通过规则变更(运用了QDR),每次能过4个科员,也就是说等效频率等于外频*4,而且领导开了天眼,可以分身(引入了流水线),例如第一个领导拿到文件,第二个领导写阅,第三个领导递出文件,因此取文件的时间降为原来的三分之一(随着流水线的深度增加,频率还会进一步的提高),但是自己定的纲领(外频)又不能推翻,生怕冒犯元老(兼容性),但是自己频率的确高了(频率可理解成执行时间的倒数,处理时间越短,频率越高),外频这种三俗自己受不鸟啊,因此采用黑科技(使用倍频器),将自己凌驾于外频之上,独立于外频存在(以后提高频率通过倍频就行),别看外频,看爷实际能力,只要FSB走廊有人送来数据,爷是来者不拒,保证超额完成任务(这里FSB的数据量成为瓶颈,所以倍频不能无限制的大)。内存科呢瞬间压力山大,领导这么牛了,我也得不停的输送炮弹,因此内存一直都在发明新技术,每次出门多带几个文件,现在一个科员已经能带8个文件(DDR3为8bit预取设计),后来内存科也觉得外频低的略2b,满足不了领导需要,因此同样开始使用分频技术( 内存的实际运行频率=内存分频系数*266.66MHz*CPU实际外频除以CPU默认外频 ),另外PCI-E虽然频率基本不变,但是随着版本进化,数据传输率也一直水涨船高,从此外频从标准变成了基准。&br&&br&&i&PS:主频=外频×倍频,此时超频还可通过提升任意一种实现,提升外频可以提高整机性能,所以过去多以外频为主,倍频为辅。&/i&&br&&b&&br&&/b&&b&以上写的较乱,没有严格按照技术演化顺序来写,归根到底原因在于,亲,你提到的技术略显过时了哟!下面让我们看现代CPU的那些事:&/b&&br&&b&&br&&/b&&b&首先单位领导多了(多核),而且为了各个领导使用同一份的内参,在领导室外引入3级缓存(L3 Catch),后来内存科的科员来了好多美女,因此领导就让内存科的妹子搬到自己办公室内进行管理(内存控制器移入CPU内,同内存可低延迟的交互),并且为了一起交流(多核通信)以及方便控制言论需要(CPU和北桥快速通信)进行了扩建,引入了宽阔华丽的QPI走廊,废除了狭窄的FSB通道,后来RM日报也来了好多美女,因此报社总部也搬入了领导办公室内(PCI-E控制器移入CPU内),之后北桥人去楼空,退出历史舞台,领导间的通信继续加强(环形总线),另外RM日报记者作为文艺青年力压内存科的普通青年,领导大为激赏,将RM日报的传统工作频率(100Mhz)定为外频,并写入了最高法,屌丝不可修改,&/b&&b&但是中产阶级也得留点念想不是,所以如果你能放机灵点,多孝敬点,领导可能还有潜力可挖,但是不要指望其他部门也配合你&/b&&b&(SNB后的CPU只能超倍频,但必须是带K的,主板也得选择中高端的,外频超频幅度不大,也就是说只对CPU有用,对于整机提升不大),大开发中,南桥的SATA,USB走廊也变宽了(SATA3.0,USB3.0),因此数据来得快了,为了满足现代形式下的数据交互,领导也和南桥直接建立了关系(DMI2.0通道,速度2G每秒)。&/b&&br&&b&&br&&/b&最后,如你所愿,这是倍频器的介绍: &a href=&/view/323746.htm& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/view/32&/span&&span class=&invisible&&3746.htm&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&(上传图片一直失败,捶桌),&b&简单来讲就是通过一组电路将输出频率放大为输入频率的若干倍,这也就是CPU倍频的实现方式,CPU号称超大规模集成电路,基础就是门电路,所以CPU中的机制,别人问你到底怎么实现的呢,你就回答通过电路,XD。&/b& &br&&br&PS:大致原理如下,&br&&i&&br&&/i&&i&倍频,基频以外的其他振动能级跃迁产生的红外吸收频率统称为倍频。如v=0至v=2的跃迁称为第一个倍频2n,相应地3n, 4n……等均称为倍频。令获得频率为原频率整数倍的方法便是利用非线性器件从原频率产生多次谐波,通过带通滤波器选出所需倍数的那次谐波。&/i&
下面以一种喜闻乐见的方式回答倍频,外频,分频,锁频,超频等等各种X频,FSB,QPI,DMI,PCI-E将会友情客串:很久以前,科学国出版业有关部门(计算机)有位领导,人称中央处理器(出版业我说了算,非常中央,又称CPU),牢牢占据着有关部门的首脑位置,这个…
来自子话题:
首先&b&部分同意 &a href=&/people/po-bu-30& class=&internal&&破布&/a& 的回答&/b&: &b&先纠正一个答主的误区。显卡是一整块PCB版,上面很多乱七八糟的元器件,核心的GPU,跟CPU差不了多少&/b&&br&然后稍微反对一下 &a href=&/people/li-bo-yang-89& class=&internal&&李搏扬&/a& 的回答. 额.. 我点赞了.. 但是我觉得你偏题了.. &br&另外: 目前CPU还有显卡不敢用3D IC (事实上在整个ASIC领域都没人敢把3D IC 市场化...)... 因为不可靠. 在wafer(硅晶底座)上面打孔太太太贵了. 注这里的贵不只指花费高, 更是其他附加成本, 比如打孔打不好直接废一整块wafer... 我们老板千辛万苦搞了个Tazarron 3D 的技术, 新加坡做的. 是目前最reliable也是&b&真正可以做出来的3D IC. 仅仅是Face-to-Face, 也就是两篇硅片先做好然后像夹心饼干一样把连线层夹在中间. &/b&&br&TSV技术MIT Lincoln Lab在搞. 但是仅限自己玩玩. 不卖 (哼傲娇的技校不跟我们玩...) ... TCI按目前的技术指标纯属瞎搞(芯片搞出来不靠谱. 连model都没有, 干扰太大完全无法胜任标准计算).&br&&br&-----------------------------------偏题线----------------------------------------------&br&&br&那么我们就来看看显卡的&核心部分& 和 CPU大小的比例吧: &br&&br&首先上CPU, 嗯, 就用i7吧:&br&&br&i7 Die Size : 160 mm? (Ivy-bridge E 256.5 mm? )&br&&a href=&http://en.wikipedia.org/wiki/List_of_Intel_Core_i7_microprocessors& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&en.wikipedia.org/wiki/L&/span&&span class=&invisible&&ist_of_Intel_Core_i7_microprocessors&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&br&&br&再上显卡: GTX系列的:&br&&br&&b&GeForce GTX TITAN &/b&&b&&i&&u&GK110&/u&&/i&&/b&&br&&b&GeForce GTX 780 &/b&&b&&u&GK110&/u&&/b&&br&&b&GeForce GTX 680 &/b&&b&&u&GK104&/u&&/b&&br&&br&&br&&br&显卡里面能跟CPU比的是Chip (GK110). 至于其他栏都是&b&外接配置&/b&. 什么意思呢? 就如同CPU也要配个巨大的主板一样. 要是这么算就没法比了对吧~ &br&&br&GK 110 Die Size: 550 mm?&br&&a href=&/162765/gk110-specifications-approximated.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GK110 Specifications Approximated&i class=&icon-external&&&/i&&/a&&br&&br&哇啦个擦! 显卡的那玩意还真比CPU大啊! (有歧义...)&br&&br&且慢~ 让我们看看怎么回事... &br&&br&i7 使用技术: 22 nm &br&GK 110 使用技术: 28 nm&br&&br&好像也没差很远嘛...&br&&br&再来: &br&&br&Transistor Count (有多少个场效应管): &br&&br&i7 : Transistors: 1.4 billion (Ivy-bridge E 1.86 billion)&br&GK 110 : up to 6 billion &br&&br&发现原因了吗?&br&&br&&b&在目前的技术条件下, 显卡上面的处理器就是比CPU大! (在此也表示 &a href=&/people/po-bu-30& class=&internal&&破布&/a& 的回答不完全准确). &/b&&br&&br&原因在于: &br&CPU处理的是需要许多步骤, 多兼容性的&b&程序语言&/b&, 原因在于CPU要控制整个系统按照规定运行某些程序. 所以牛逼的CPU在于架构好, 运行速度快(单条指令),而不是使用大量的冗余. 这主要是在于程序运行的时候, 有时候&b&后条指令需要前面的指令执行完毕才能继续, &/b&那么这种情况下无限制的增加CPU的并行处理能力也无法提升整体的速度. &br&&br&而显卡正相反, 显卡的工作十分枯燥, 就是&b&重复不断地计算&/b&(又叫rendering, 比如说两点之间用某某颜色画一根3D的线然后按照某种标准转了XX度之后这个线要怎么显示之类的...), 但是大多数这些计算是相互独立的, 可以并行. 所以需要&b&大量的计算单位&/b&, 甚至一些额外的冗余计算单位以应付高频显存计算. 所以&b&可以粗略的说越牛逼的显卡核心越大&/b&. &br&&br&由于侧重点不同, 两者之间大小差距不是就很正常了吗~&br&&br&以上.&br&&br&-----------------------------------补充线-------------------------------&br&&br&多谢 &b&&a href=&/people/po-bu-30& class=&internal&&破布&/a&&/b&指正, 学习了!&br&&br&1. 指令调度逻辑在core里面确实比重不小,但是整个die size主要由cache占据,核心是相对小块。 &b&&i&同意, 我表达的不全面。&/i&&/b&&br&&br&2. ILP limitation远没有这么小,在cache memory跟得上的情况下OoO可以跑得飞起,做10-issue甚至20-issue的想法十几年前业界就有过, 问题是cache memory跟不上,功耗、设计复杂度开销也惊人。最后才放弃。所以说CPU核心逻辑不做大的问题不在于 ILP limitation。 &b&&i&啊咧。。。我的point就在于无论CPU怎么增加核心, 还是没法根GPU核心数量/并行数量相比的。。。由于设计理念不同。&/i&&/b&&br&&br&&b&3. 顶级CPU比顶级GPU还大,问GPU为何比CPU die size大是个伪问题。&/b&拿i7跟Titan比并不准确,最大的CPU跟最大的GPU差距并没有那么大,AMD的顶级服务器CPU是300mm2开外,Intel的暂时没有公布,从L3 cache上粗看估计已经超过400mm2,如果没有超过400也不会离400很远,&b&IBM Power8是650mm2,比Titan还大。&/b&所以说顶级的CPU和GPU die size差距没那么明显,甚至前者更大,&b&只是CPU把大部分面积花在了cache上,GPU大部分花在了ALU上。 &i&同意! 这点我认为总结的很好! &/i&&/b&&br&&br&4. &b&从第三点出发,我们都忘了考虑logic和SRAM的density问题。&/b&在2001年的时候logic density大致在7 million to 20 million transistors/cm2,SRAM density在35 million transistors/cm2,不知道现在趋势有无变化。如果这个趋势没有变化,那么以logic为主的GPU die size就容易膨胀,CPU的SRAM density做的好的话die size就不容易涨起来。 &b&&i&按照MOSIS的指标, 略有涨但是没有本质变化。。。(我记得 32nm SOI是45million?) 不过我们确实没有考虑这个问题 : P &/i&&/b&
首先部分同意
的回答: 先纠正一个答主的误区。显卡是一整块PCB版,上面很多乱七八糟的元器件,核心的GPU,跟CPU差不了多少然后稍微反对一下
的回答. 额.. 我点赞了.. 但是我觉得你偏题了.. 另外: 目前CPU还有显卡不敢用3D IC (事实上在整个ASIC…
来自子话题:
谢邀&br&同意&a class=&member_mention& data-editable=&true& data-title=&@阏男秀& data-hash=&8d9fb9a5ce8d4e9f275e& href=&/people/8d9fb9a5ce8d4e9f275e& data-tip=&p$b$8d9fb9a5ce8d4e9f275e&&@阏男秀&/a&说的,做电子、嵌入式研发,是看重经验的。在招聘网站上搜搜ARM、嵌入式之类的字眼就能发现招聘多数要求有研发经验。但学历,却没要求多高,大部分是大专或本科。&br&&br&学历或许会是你进好企业(如研究所什么的都要硕士及以上),但考研不一定就能让你深入研究。那要看你读研跟的老板是什么样的人。我毕业于一个二本学校,因为拿过设计比赛奖而得到学校推研的机会。但推的不是我希望跟的老板,所以放弃。其实读研两三年其实就是在实验室给老板打工(所以导师才被成为老板),老板有项目你帮着做,在实战中获得研发经验。&br&我之后工作的单位和一个211大学的老师合作搞项目,所以我就被外派在大学实验室里工作。在那里印证了我之前放弃推研的想法:有个研究生,跟了院长。但这个院长一心搞行政,他整天没项目可做,天天在宿舍DOTA,最后毕业除了捞个毕业证,技术一点没进步(有次跟我说,他写C最喜欢大量使用goto语句了……)。毕业论文我看了,拿来做本科毕业论文深度都不够。但人家就是毕业了,然后院长推荐留校了。&br&&br&所以,如果想从事这个行当而考研,最好找个有项目干的老板。但说实话,做自动化、电子行业的读到硕士研究生就够了,硕士毕业且在校期间做过项目或得过什么挑战杯奖那是最perfect,是最惹HR眼球的。读博的话,你要出来反而就业面窄了。博士论文讲求的深度,硕士论文是无法比拟的,而工科又恰恰不像理科那样容易做深度研究。读到博士,那基本上不是做嵌入式了,而是做控制理论什么的算法了。&br&&br&嵌入式研发没这么简单。嵌入式、电子设计不是没什么研究,而是现代自动化、电子工程领域发展越来越集成智能化了。八十年代学自动化毕业的人能对照《无线电》杂志的电路图自己焊个电视机出来。现在发展到电路都几乎被集成到芯片了。所以给人感觉做嵌入式就是跟计算机一样写点程序就完事。&br&&br&但不管是软件的裸奔或上linux的调试,还是硬件的模数电路调试,设计看起来好像没什么,但等到设计出来调试的时候。要想调试出能用的产品,能够你忙了。不说&a class=&member_mention& data-hash=&a2e12c397a4a13eae444b616d78b6e8d& href=&/people/a2e12c397a4a13eae444b616d78b6e8d& data-tip=&p$b$a2e12c397a4a13eae444b616d78b6e8d&&@汤德息&/a&提到的那些linux上莫名其妙的bug,单单bootloader or 底层驱动程序就够忙好几个月(虽然一般都有BSP,但有些规范化流程是要求研发团队自己写)。&br&如果你想做算法,有的是算法让你做,PID玩好了还有神经网络算法、鲁棒控制。嵌入式的算法基本是自控原理的。还有数字信号处理、信号噪声、傅里叶变换、小波分析神马的够你玩好几年了。(可以在招聘网站搜“DSP算法”,但这一般是招聘硕士研究生,因为本科生的《信号系统》普遍学得较浅)&br&或者来做嵌入式硬件设计把。现在工控类的产品多数还是专一的设备,不同场合的硬件设备都不同。都要重新研发设计硬件电路。有什么可做的呢?高速电路的信号完整性分析好玩不?阻抗匹配、EMC整改,绝对是每设计一个电路就是一个新思维。调CAN、TCP甚至485通信都能让你天天加班纠结半年。&br&还有,估计你没学到或是没深入学的的FPGA……&br&所以,嵌入式的世界,大着呢。
谢邀同意说的,做电子、嵌入式研发,是看重经验的。在招聘网站上搜搜ARM、嵌入式之类的字眼就能发现招聘多数要求有研发经验。但学历,却没要求多高,大部分是大专或本科。学历或许会是你进好企业(如研究所什么的都要硕士及以上),但考研不一定就能…

我要回帖

更多关于 芯片里面是什么 的文章

 

随机推荐