Alder Lake SoC深度解析:Intel的大小核未来梦

昨晚Intel举办了今年的架构日活动,和往年一样,Intel在架构日活动上会公布很多自家未来芯片设计方面的细节,比如说即将发布的CPU/GPU架构,新的内核设计和一些新的技术,今年的Intel架构日活动上他们带来了下一代处理器,也就是Alder Lake的详细内容。

Alder Lake简介

Alder Lake是Intel耗时多年打造的一款全新架构,它是未来将要发布的第12代酷睿处理器的核心。

/>

和以往的Intel处理器架构一样,Alder Lake包含了CPU、GPU、内存控制器、IO、显示输出和AI加速器等部件。它也是Intel首个采用大小核设计的高性能处理器,改动主要有以下几点:

  • CPU部分采用大小核混合计算架构,最高由8大核8小核组成16核24线程
  • CPU大核升级到Golden Cove架构,IPC提升约19%
  • CPU小核升级到Gracemont架构,性能接近Skylake,能效比很高
  • 采用Intel 7工艺制程,频率相较于10nm SuperFin工艺会有进一步提升
  • 内存控制器升级支持DDR5和LPDDR5内存
  • PCIe升级到5.0版本

让我们一点点来看Alder Lake的进化。

x86大小核异构

Alder Lake上最大的变化点便是它采用大小核异构的架构,此前Intel曾在Lakefield上试水大小核异构,并推出了两款正式产品,不过它们都是低功耗处理器,性能不强。因此Alder Lake可以说是首款大小核异构设计的高性能x86处理器,在继承Lakefield的大小核异构设计之上,进行了深度改进。首先来看被Intel称为效率核心(E-Core)的Gracemont。

E-Core:整体性能接近Skylake、但能耗更低的Gracemont

在大小核异构设计中,一般小核的设计目标是高能效比,而大核的目标则是提供极限高性能,Gracemont便是一个非常高效的核心。Intel的小核心设计是独立于大核心的另外一条线,现在一般称为Atom核心。一脉相传下来,Gracemont的上代是Tremont。从Tremont到Gracemont,Intel着重加强了小核心的后端执行能力,尤其是整数性能。

上图左边是Tremont,右边是Gracemont,可以非常明显的看到,Gracemont的执行端口多了不少,从原本的10个猛增至17个,而跟着的就是执行单元数量变多了。

整数部分ALU从3个增加到4个,AGU从2个倍增到4个,对应还增加了一组MUL和DIV单元,整数执行能力得到大幅增强;浮点运算部分也有一定提升,原本只有一个的FADD和FMUL单元现在均有两个,能够拼合处理256-bit宽度的数据,也就是说能够满足执行AVX2指令集的需求;浮点ALU和STD均增加一个,计算能力会有较大提升。

为了满足大幅膨胀的后端,前端也相应做了较大增强,解码部分仍然是两组三宽度设计,可以同时启用达成六解码。L1指令缓存(L1I)倍增至64KB,同时分支预测器得到加强,拥有更大的缓存。

中核部分,ROB增大到256,这一数字比Skylake的224更大,与Zen 3持平。

最后是缓存子系统,前面说过AGU从2个倍增到4个,分配成2个Load和2个Store。L1D的大小没有变化,仍为32KB,L2的缓存最高可达4MB,需要注意的是,L2缓存是4个小核一起共用的,同时容量可配置。对了,还需要提到的是,小核以4个为一组,一组小核的面积与一个Golden Cove差不多。

总的这些改进加起来,Gracemont的性能提升相当可观。官方将它与Skylake进行了对比,在单线程的整数性能方面,Gracemont同功耗性能可提升超过40%,同性能下节约40%左右的功耗,能效比超群。

而在多线程方面,同样是4线程,与开启超线程的2个Skylake内核相比,4个Gracemont内核能够在少用80%功耗的情况下输出同样的整数性能,而如果火力全开,那么能够提供约1.8倍的整数性能,同时功耗还更低。

总的来说,Alder Lake使用Gracemont来提升处理器在多线程情景下的总性能,同时在注重节能的场景下,可以凭借小核优异的能效比实现更长的续航表现。

P-Core:IPC提升约19%的Golden Cove

小核很强,而大核——Intel称为性能核心(Performance Core,简称P-Core)——的Golden Cove内核只能说是改的更大提升更多。用Intel的官方口径来说,就是变得更宽、更深和更智能了。

更宽指的是内核解码、执行指令的并行程度更大;更深指的是内核中的各种指令缓存变得更大;更智能指的是部分组件具有更准确的判断能力。

Golden Cove的前端部分改动相当大,最明显的就是多年未变的4宽度(实际上是4+1宽度)解码器升级成了6宽度解码器(应该是6+1)。不像Arm等RISC体系的内核,属于CISC体系的x86要增加指令解码器的代价相当大,因此不管是AMD还是Intel都把前端解码器维持在4宽度,现在Intel首先前行一步。同时L1I缓存的带宽也扩大一倍到32Bytes以满足6宽度解码器的需要。

增加解码器宽度会增加处理器的流水线长度,这让分支预测错误的惩罚更重。Intel选择增加分支预测缓冲区(BTB)来应对这一问题,其分支条目数量从5K直接增加到12K,比Zen 3的6.5K多将近一倍。分支预测器本身也变得“Smarter”了,准确率继续提升。

宏指令(µOP)的吞吐量从多年未变的每周期6个增加到8个,同时用于缓存宏指令的宏指令缓存(µOP Cache)继续增大,从2.25K直接增大到4K,与Zen 2/Zen 3持平。宏指令队列的结构有所调整,现在为超线程进行了更多优化,双线程同时利用的情况下,单线程队列深度为72;而如果是单线程利用核心的情况则可以完整利用144的队列深度。

中核部分,同步变得更宽,发射区从原本的5宽度加宽到6宽度,ROB缓存从Sunny Cove的384加大到512,直逼苹果Firestorm内核的600+,ROB增大会显著增加内核功耗。另外,执行端口方面增加两个,现在共有12个端口,不过整数和浮点仍然共用发射端口,没有改成流行的分离式。

虽然是共用端口,不过Intel还是把整数和浮点的改进分开讲了。后端执行部分的改动相对较小,从上面两张图中可以看到,整数部分增加了一个ALU;FPU部分增加了两个FADD单元,它比FMA单元更高效,指令周期也更短了;而FMA单元增加了对FP16数据的支持,对低精度计算有帮助,不过因为需要调用AVX-512指令集,所以在Alder Lake上我们无法利用到它。

另一个新增的端口被用于缓存子系统,新增了一个Load AGU,这样每周期的Load带宽提升至3,和Zen 3持平。L2沿用Willow Cove的设计,仍然是非包含式设计,每核心具有1.25MB。不过加入了新的预取机制,降低了DRAM的读取次数。

总的改进加起来让Golden Cove相比起Cypress Core有了平均约19%的同频性能提升,最高甚至能有60%左右的提升。不过比较奇怪的是,有几个项目的成绩出现了倒退。总的来说,Golden Cove是一次全面的大改,可能是自Skylake以来改动最大的一个内核微架构。

Intel Thread Director:调度大小核的关键角色

大小核心的性能提升都非常可观,但要如何调度它们,让它们充分发挥自己的长处呢?其实Arm已经替x86淌过浑水了,big.LITTLE架构发展至今已有十余年时间,主流的操作系统都添加了对大小核的调度支持,包括Windows。操作系统是知道处理器上多个性能不同的内核的。但之前在Lakefield上我们也看到了Windows在调度大小核x86处理器时候的糟糕表现了,该怎么解决这个要命的问题呢?Intel选择了一个软硬件结合的方案,称为线程总监(Thread Director,暂译,等官方中文名)。

在操作系统层面上,Intel和微软合作改进了Windows的任务调度,从Windows 11开始,系统的任务调度器能够获取更多信息,用于判断当前正在运行的线程需要什么样的性能模式,它要调用哪些指令集,同时它还懂得让硬件为高优先级任务让位。

同时,Intel在Alder Lake处理器中集成了一个非常小的MCU,用来监控当前处理器内核的运行情况,能够监测到每个线程的特征,比如它运行什么样的指令集、它的性能需求如何等等。在收集完信息之后,它会将收集到的信息反馈给Windows 11,而后者将会把这些信息与自己收集到的信息相结合,判断是否应该将线程转移到别的核心上。这一切发生在短短30微秒以内,而传统的调度器可能需要100多毫秒才能判断出结论。

当然,Alder Lake默认还是会把线程安排在P-Core上,除非高性能核心上面都有任务在跑。Intel将Alder Lake分为以下三个性能层级:

  1. 每个P-Core上只跑1个线程
  2. E-Core上只跑1个线程(当然它也只能跑1个)
  3. 在P-Core的超线程上跑线程、

也就是说,在一般情况下,系统调度器会优先把线程安排到P-Core原生的线程上,8个原生P-Core线程被放完后,轮到的是E-Core,如果还不够用,它才会去利用P-Core超线程出来的线程(因为超线程出来的线程性能肯定是不如E-Core的好嘛)。比如一个20线程的任务,会利用上P-Core原生的8个线程+E-Core原生的8个线程外加4个P-Core超线程出来的4个线程。

当然,Windows 10也还是有大小核调度的能力的,但是说简单点就是不够智能。在Windows 11下Alder Lake应该会有更好的能效表现。

支持DDR5与LPDDR5内存,仍然兼容DDR4和LPDDR4

讲完内核部分,我们略过没有实质性变化的Xe GPU,直接来看其他的一些变化点,首先是内存控制器:

可以看到Alder Lake新增了对DDR5和LPDDR5内存的支持。默认情况下DDR5支持到4800MT/s,LPDDR5支持到5200MT/s,前者在今年晚些时候会开始出货,而后者在移动设备上已经被广泛应用,本来Tiger Lake是号称支持LPDDR5的,后来因为种种原因没能最终实现。而在Alder Lake正式推出之后,应该会有很多轻薄本用上LPDDR5内存。

支持PCIe 5.0的新IO

Alder Lake的PCIe支持非常激进,直接一步升级到最新的PCIe 5.0,带宽较PCIe 4再翻一番,x16下数据带宽高达64GB/s。当然因为功耗原因,这应该是桌面平台独有的。在Rocket Lake-S和Tiger Lake上新增的x4通道则仍然是PCIe 4.0规格的,可以用于连接SSD。虽然没有明说,但与PCH互联的总线应该是升级到DMI 4.0了,至少会是x4的宽度,而高端PCH应该会通过DMI 4.0 x8与CPU相连。PCH能够再导出12条PCIe 4.0和16条PCIe 3.0,扩展性比起以前来可谓是一个天上一个地下。

大一统的Alder Lake

相比起11代酷睿在桌面和移动端的分裂,Alder Lake又重新统一了回来,当然不同平台还是会有不同的规格。

桌面端的Alder Lake最高会有8大核8小核,不过没有集成的Thunderbolt 4控制器,核显规格也仍然只有32EU。移动端最高则是会有6大核8小核,外加96EU和4个Thunderbolt控制器,当然还是会集成祖传的IPU。对功耗更为敏感的超轻薄端最高就只有2大核8小核了,Thunderbolt控制器数量也减少到2个。

Alder Lake是近些年来Intel推出的改变最大的一个架构,不管是计算内核本身的改动还是大小核的设计,可以说是非常激进的。很惊喜Intel能给我们带来这样一个很有创造性的新架构,Intel可能会在10月末的innovatiON活动上正式发布Alder Lake的产品,也就是第12代酷睿处理器,非常期待它的正式表现。

Intel是怎么失去自己的性能优势地位的?

要是有人在五年前跟我说,AMD的处理器性能逼近甚至超过Intel的,那我当时肯定会像看傻子一样看着对方,然后缓缓说出一句“你在搞笑吧?”来严肃回答对方。

然而,两年之后的现实就是,AMD用Zen 2架构的Ryzen 3000系列处理器在性能与口碑上都追上,甚至赶超了Intel,“AMD, Yes!”这句口号也是被喊得越来越响亮,甚至出现了什么状况呢?面对竞争对手的咄咄逼人,他们拿出了Comet Lake-S这种实质是Refresh的产品来应对,连已经被应用在移动端的新内核微架构都懒得换,加了两个核心,优化了下散热,提了点频率就拿出来卖了。

那么Intel是怎么一步一步走到今天这个局面的?我分析了从14年开始,Intel的产品布局还有他们的Roadmap,至少有一点可以明确的是,制程工艺,真的卡了Intel的脖子。从22nm到10nm的路上,每一次制程节点的升级都遇到了问题,结果就是Intel匆匆忙忙之间,不仅要为新制程的延期擦屁股,还要为竞争对手的突击来调整自己的产品布局。首先,我们要从14nm,这个可以说是一代经典的工艺说起,让我们把时间倒回到2014年。

14nm延期:Tick-Tock战略的终结

2014年的Intel,正在用着成功的Haswell和22nm制程称霸着x86处理器市场,他们原本计划在那年推出升级14nm制程的Broadwell,也就是Haswell的换制程版本,延续自己成功的Tick-Tock战略。

什么是Tick-Tock战略呢?这里为不清楚的朋友简单介绍一下。

Tick-Tock战略是Intel在2007年提出的处理器更新战略,因其类似于钟摆运动而得名。在Tick年,Intel将会引入新的制程工艺,但不会对CPU微架构进行大幅改动;而在Tock年,Intel将会使用上年更新过后的工艺推出采用全新架构的CPU。这样,以两年为一个周期,Intel可以稳步推进自己的处理器更新换代,在市场上牢牢坐稳自己领导者的位置。

这套战略非常有效,Intel沿着Tick-Tock战略制定的轨迹,从2007年一路走到2013年,期间他们的制程工艺从65nm一路发展到22nm,而内核微架构也从Core 2 Duo时代的Conroe一路进化到2013年的Haswell。

Haswell,也就是现在仍然被人们津津乐道的四代酷睿,一经推出就成为了当时的装机首选。一方面,它相对于上代处理器有可观的性能增幅,另一方面,竞争对手还陷在推土机架构的泥沼中,一时半会儿没有还手的力气。看起来Tick-Tock战略非常成功,下一年就可以推出采用14nm制程的Broadwell系列处理器了,但就在这个当口,制程工艺的更新出了岔子,跟不上了。

Intel为每一次的制程迭代都设定了相当高的目标,从22nm进化到14nm也不例外。但Intel再牛逼,也突破不了物理的极限,随着晶体管变得越来越小,单位面积内晶体管的数量越来越多,在没有对材料进行改进的前提下,漏电和发热情况会越来越明显,同时,新工艺早期的良率难以与老的成熟工艺相比,搞定这些问题需要时间。在2013年末的时候,14nm制程还没有成熟到能上正式产品的底部,在当时Intel期望能够在下一年的第一季度将其应用于量产,结果我们都知道了,预期没能实现。

在2014年年中的时候,Intel对外解释了他们14nm制程延期的一些原因,上图主要诉说的是14nm制程的良率还没有22nm那么高,才刚刚满足Intel的PRQ(能够用于正式生产的良率点)。那工艺才刚刚进入量产,产能还跟不上怎么办?Intel很聪明,他们选择对现有产品在不进行制程升级的情况下进行小幅更新,也就有了Haswell Refresh这一代处理器,代表产品有Core i7-4790K和Xeon E3-1231V3等。从这里开始,Tick-Tock战略在事实上已经被改良的Tick-Tock-Refresh战略所取代,不过Intel暂时还没有承认这一点,继续使用既有的路线图走了下去。

在既有的路线图上面,2014年是Tick年,Intel应该换新的工艺,也就是预定的14nm推出新产品。但因为工艺出现了延期,没能很好地实现Tick年的预定计划,而新的Tock年——2015年很快就到了,按照计划他们应该推出采用新架构的14nm处理器。为了赶上原本的路线图,Intel直接砍掉了Broadwell的桌面版(实际只有两款且出货很少),在2015年的夏季,直接推出了Skylake处理器,也就是我们熟知的第六代酷睿。

上图是Intel在2015年公布的官方路线图,可以看到的是,在桌面端,Broadwell完全消失了,接替Skylake的,是又一代的Refresh产品。而在移动端,Broadwell与Haswell Refresh并存,之后出现了一个需要注意的地方,那就是Cannon Lake,它将要在移动市场上接替Skylake,是Intel规划中的初代10nm处理器。按照这张路线图,Intel计划在2016年的第二季度将Cannon Lake带入市场,也就是说,在当时,Intel对2016年量产10nm处理器这件事情是非常自信的。

结果,在2016年,我们没有等来Cannon Lake和10nm制程,等来的却是Intel宣布将Tick-Tock战略由新的Process-Architecture-Optimization(制程-架构-优化,简称PAO)三步走战略替代的消息。

在新的PAO战略中,制程工艺仍然是开启一个周期轮回的首要因素。如果将14nm作为PAO战略的首个制程节点,那么Skylake处理器就是这一轮PAO中的架构改进点,正好是对应起来的,那么在Skylake之后带来的,就应该是Optimization,也就是原本的Refresh这一步,它将优化新架构和新制程的表现,提供一个PAO轮回中最好的综合表现。好了,Intel也就顺势公布了Skylake的下一代将会是Kaby Lake,而不是此前定下的Cannon Lake。

至此,Tick-Tock战略完全失效,被新的PAO战略所取代。但我们谁都没有想到,Intel的头一个PAO轮回就花了他们将近四年的时间。

10nm屡次延期:Cannon Lake夭折与不尽如人意的Ice Lake

上文说到,在Intel很早以前的路线图中,他们计划在2016年将10nm带到人们的眼前,结果事与愿违。不过Intel仍然没有放弃,因为他们深知,制程工艺的领先将会在竞争中给他们带来莫大的优势。于是在2017年伊始的CES展会上,Intel CEO在自家的发布会上面信誓旦旦地表示,他们的10nm处理器会在当年年末的时候出货。紧接着的投资者公开会上,Intel更是扔下了一枚炸弹,他们声称将会在数据中心产品上首先启用10nm制程,而不是像往常那样,首先在移动超低压产品上应用,但同时,他们还告知投资者,今年在消费级还会有一代14nm处理器。

这是为什么呢?我们把时间稍微倒回去一个月。

2016年12月13日,AMD在名为“新地平线”的峰会上面公布了自家传闻已久的全新Zen架构的正式产品——Ryzen系列处理器。在次年的3月初,初代Ryzen的首批三颗处理器正式开卖了,上来就是八核十六线程的规格,在多线程能力方面对Intel处理器造成了很大的威胁,这也被视为AMD走出推土机阴霾,重返高性能处理器市场的标志。

在接到蜇伏了多年的老对手突然出的一记重拳之后,Intel当然是要回应的,于是就有了上面的“今年在消费级还会有一代14nm处理器”,现在我们知道,Intel为了应对AMD的攻势,给桌面端沿用了多年的四核规格加了两个核心,推出了代号为Coffee Lake的八代酷睿,同时他们再次优化了在Kaby Lake上已经被优化过一次的14nm制程,命名为14nm++。

当然,Intel肯定是没忘记他们的10nm制程的,在当年三月份末的制造日(Manufacturing Day)活动上面,他们向各路媒体公开了10nm制程的细节和他们设定的目标,其中最为人印象深刻的是,他们要把晶体管密度提高约2.7倍,这样一来,Intel能够继续保持3.5年的制程领先,并且能够比台积电/三星/GF这几家的7nm工艺更加先进。

吹归吹,还是得拿出实际产品才能够让人信服。

整个2017年,Intel在10nm上再没了什么动静,甚至于在2018年的CES演讲上面,他们的CEO提都没提自家的x86 CPU,只有在演讲结束之后的一个面向媒体的短会上面,CCG(客户计算业务组)的高级副总裁在时长为10分钟的短暂演讲的末尾提了一句,称他们的10nm产品已经在2017年出货了。这种低调的声明对于Intel来说并不是什么常见的事情,在场的不少媒体意识到,Intel内部肯定有什么问题发生了。

结果到了2018年5月份,除了Intel自己意外泄漏的一份文档中出现了Cannon Lake之外,其他地方根本就没这系列的影子,说好的出货出哪儿去了?答案最终浮现是在中国市场上一款出货量并不大的新笔记本中:

从上面的广告Banner中,我们可以发现这款处理器的型号为Core i3-8121U,而它就是最初和最末的Cannon Lake处理器,整个Cannon Lake系列中唯一一款正式进入市场的处理器。

为了研究Cannon Lake和10nm工艺,各路硬件媒体马上从中国购买了这台笔记本回来,比如AnandTech的Ian Cutress博士就行动了,很多媒体随后都发布了对这款处理器的评测,其评价基调都差不多:失望。这款处理器在默认情况下基本上打不过规格类似的Core i3-8130U,甚至在同样的频率下面,作为拥有更先进工艺的处理器,它的功耗比Core i3-8130U还要大。

Cannon Lake被初代10nm工艺所严重拖累,以至于该系列仅推出了一款处理器就被Intel给砍掉了。为它配套的300系芯片组被修修改改用在了Coffee Lake身上,这也就是为什么,300系芯片组的代号是Cannon Point的原因。

Cannon Lake虽然夭折了,但它对Intel仍然有着莫大的意义。首先,它是一个新PAO轮回的起点,正式引入了新的制程,其次,在Cannon Lake上面,Intel完成了其处理器平台与内核微架构的解耦,以往Intel处理器的内核与平台共同一个代号,而在Cannon Lake身上,两者分离了。Cannon Lake搭载了Skylake微架构的升级版——Palm Cove,而在2018年初期,Intel就正式公布了他们在内核微架构上的路线图:

但在整个2018年中,Intel都没有发布其PAO战略应该有的下一步,代号为Ice Lake的第二代10nm处理器,直到2019年年中,Intel终于在台北电脑展的发布会上面公开了该系列的具体详情,它可以说是Intel在2015年推出Skylake以来幅度最大的处理器升级,引入了诸多新特性。而在8月份,Intel正式宣布该系列处理器上市,在去年年末和今年年初一段时间,我们看到了大量搭载Ice Lake的处理器。但是尴尬的事情又再次发生了,Ice Lake系列的性能被发现打不过自家另外一系列的移动处理器,也就是代号为Comet Lake-U的14nm处理器。

上面两张图来自于Intel官方的宣传资料,他们拿AMD Ryzen 7 3700U分别对比了自家的Core i7-1065G7(Ice Lake)和Core i7-10710U(Comet Lake),后者同为TDP为15W的产品,但比前者要多两个核心,同时还有更高的睿频。从图上可以看到,Core i7-1065G7在不少场景下是比不过Core i7-10710U的。现在更有坊间的爱好者对Ice Lake进行了更为详尽的测试,其能耗比真的只能用失望两个字来形容。

看起来Intel解决了新制程生产良率的问题,却没有解决能耗比的问题,现在的10nm被卡在高发热量、频率上不去、上不了桌面端等等问题之中,实属非常尴尬。就在Intel被新工艺延期折腾的时候,竞争对手已经推出了第三代Ryzen处理器,并用上了经过大幅改良的Zen 2架构。

Zen 2与Renoir:AMD实现逆转的最后一块拼图

AMD在Zen架构获得一定成功后继续改良,推出了一代小改的Zen+,然后同样在2019年的台北电脑展上面,他们发布了基于Zen 2架构的第三代Ryzen处理器。Zen 2针对Zen架构单核性能不足的问题进行了针对性的加强,更为重要的是,AMD从内核微架构到内核互联到封装形式再到制程工艺上,全部都进行了脱胎换骨般的革新,这里我们不多谈细节,而是看到最终的成品上面去。桌面版Ryzen 3000处理器因为有优秀的性能表现和较为平实的价格而获得了广大消费者的认可,而基于同样架构、面向服务器市场的第二代EPYC处理器已经被Amazon和微软Azure等数据中心启用,而后推出的面向高端桌面及工作站的第三代线程撕裂者更是大幅度打破了Intel在这块领域的性能优势,甚至Linux之父Linus在上个礼拜也放弃了一直使用的Intel平台,换了颗Threadripper 3970x,还被这颗处理器的表现所折服了。

这也是自K8以来,AMD十余年时间首次在桌面端拥有了与Intel不分伯仲的实力,在企业级市场中的份额也有一定的上升。一片向好的情况下,移动市场成了Intel最后的遮羞布。然而……

在今年年初的CES上,AMD发布了代号为Renoir的Ryzen 4000系列APU,它将Zen 2内核与其他模块融合到了一块Die上面,最高提供8核16线程的配置,需要注意的是,就算是低压的15W版本,也有8核16线程的高配,这是以往在移动平台上从来没出现过的,此前Intel也就是把核心数推高到了6个而已,关键是,它凭借着工艺优势,在同样的TDP空间内提供了更好的性能。

Renoir的意义并不只限于给低压平台提供新的8核而已,它是AMD认真为移动平台打造的一代APU。为什么说是认真呢?前两代Ryzen APU的表现实际上还可以,也收获了一定的市场认可,诸如华为等新兴笔记本品牌都推出了基于这两代APU的廉价笔记本,甚至微软为自家的Surface Laptop还定制了一颗APU。但问题在于,由于核心调度、待机功耗等等地方没有做的很好,使用这两代APU的笔记本在续航表现上较为一般,性能只能说是将将够用,所以大的OEM并不是太买账。

而Renoir则是针对这些小毛病进行了认真的改进,尤其是在节能方面,配合上台积电优秀的制程工艺,Renoir在续航方面实现了突飞猛进般的提升,直追、甚至超过了Ice Lake平台的表现。在看到Renoir的改进之后,今年大的OEM纷纷开始大量采用Renoir APU,推出的产品有像联想小新系列的主流级学生本,有天选、R7000这样引发大量话题关注的高性价比游戏本,甚至AMD还和华硕合作搞出了幻14这样炫技的产品,这些都是对该系列的认可。

Renoir成功地将Intel的最后一块遮羞布给揭下了,几乎在全平台实现了逆转。那么Intel现在有给出什么应对手段吗?

Tiger Lake与Rocket Lake:Intel能否摆脱困境?

Intel的优势很大程度上来自于自家的制程工艺,原本他们的工艺平均领先其他代工厂约3.5年,但在14nm和10nm的两次延期之后,这种优势已经荡然无存了,台积电的N7在相当程度上接近、甚至超过了Intel的10nm工艺,而他们在N7之后的下一代制程——N5,已经被用于量产苹果今年的A14处理器了。

Intel面对着严峻的考验,当然他们有着这么大的家底,肯定是不会坐以待毙的。同样在年初的CES 2020上,Intel在自己的主题演讲末尾终于是提到了自己在移动端布局的新平台——Tiger Lake。

Tiger Lake可以说是Ice Lake的优化版本,不过优化力度有点强,主要有换用新的Willow Cove内核,换上Intel研发已久的Xe GPU架构,并且使用10nm+的工艺进行制造,在频率上面有所提升。从目前泄漏的各种跑分成绩来看,Tiger Lake在一定程度上走回了性能增长的正轨,有望在移动端与Renoir进行对抗,不过,它最多应该只有四核版本。

Tiger Lake仅会在移动端露面,而对于竞争乏力的桌面端,Intel规划了名为Rocket Lake的平台,它仍将会使用14nm++制程,不过它终于摆脱了使用多年的Skylake内核,换上新的Sunny Cove/Willow Cove内核,在IPC上面有较大进步。配合上14nm++能够提供的较高频率,有望提供一次较大的性能提升。

但问题在于,竞争对手并不是静止的。AMD方面仍然在按他们既定的路线图走着,明年的CPU市场仍然是风云变换的一年,Intel能否摆脱当前的困境,很大程度在于明年这些新东西的表现。

总结:受制程拖累是大头,但战略跟不上变化也存问题

在文章的结尾,我们还是回归本文的标题,分析一下Intel是怎么失去自己的性能优势地位的。在前文谈及Intel两次受到制程拖累时,其实已经谈到了Intel在战略上反映过慢、处于被动的迹象,这也是除开制程之外的另一个拖累Intel处理器性能发展的问题。

我们经常戏称Intel、佳能等一些厂商为“牙膏厂”,原因在于,他们产品的代际性能提升相当有限,就像挤牙膏一般,明明有这么一大管,每次挤却总是那么一丢丢。作为半导体芯片行业的领头羊,Intel的技术储备方面是很丰厚的,他们也完全有能力在制程受限的情况下对架构进行更新实现更大幅度的性能增长,结果他们并没有选择这条成本较高的发展路线,而是通过一手“拖”字决,靠着加核心提频率的“秘诀”,让自己的产品不至于很难看,但端上来的Coffee Lake、Coffee Lake Refresh和Comet Lake这三代产品实在难以说是有诚意,一次又一次的挤牙膏消费的是自己品牌的形象,也让竞争对手得以缓缓接近自己,甚至大有弯道超车的趋势。

虽然Intel处理器的游戏表现依旧优异,但其实这部分的优势很大程度上来自于它的Ringbus总线和超高的频率,而不是内核架构。在将核心数和频率提升到极限之后,Intel终于才开始规划内核上的升级,但此时又被制程给限制住了,在下一代Rocket Lake处理器上我们很有可能会看到最大核心数量倒退的情况。

在这里说如果已经是马后炮,只能看向未来。从目前在各种渠道中得知的情况来看,Intel在未来的一两年中面对的挑战相当严峻,Tiger Lake早期工程样片的表现仍然不尽如人意、Rocket Lake的功耗被继续推高,更远的Alder Lake甚至将引入还没有正式表现的8+8大小核设计,用现在的眼光来看,这几个都不是什么好消息。不过传奇人物Jim Keller已经被Intel招至麾下,挑起技术部门的大梁,他将带给Intel什么样的变化现在还不得而知,但从他的传奇经历来看,总体是偏向好的。

很多人说,Intel的收入大头不在消费级,而是在企业级,其实这种说法并不准确。Intel的主要收入来自于CCG与DCG这两个部门,前者面向消费级市场,产品就是我们日常见到的这些消费级CPU;DCG部门面向数据中心市场,产品是服务器级别的CPU(和其他AI方面的产品)。在最近几个财年中,CCG与DCG的收入基本持平,CCG稍多几个百分点,但消费级产品的颓势已经明显影响到了部门的收入,上个财年CCG的收入增长几乎停滞,只有0.1%。而DCG的发展情况仍然大好。

总而言之,14nm和10nm的两次延期让Intel将自己工艺上平均领先3.5年的优势给消磨殆尽,而战略上的迟缓应对让他们逐渐处于被动地位。未来一到两年之内,他们相对弱势的情况不会有很大的改变,如果不对目前“挤牙膏”的现状做出改变,那“AMD,Yes”的口号,真的会越来越深入人心了。

远离Sony产品,珍惜财产安全

人呐,是不能有闲钱的,一旦有钱了呢,就想消费。

那天用着买了快有两年的QC30,开着最高强度降噪,没半天电量就从100%跌到50%了。这办公室呢,总归有几个喜欢大声交谈的同事,不挂个主动降噪,光靠用海绵套隔绝声音是远远不够的。想着Sony不是掏了个二代狗圈出来吗,正好自己好久没买Sony的东西了,思索了一下,该是时候体验一下Sony的产品了。正好身边有不少购买了一代狗圈的朋友,都对这款产品挺满意的,想着二代总不能比一代还差吧,就下单购买了WI-1000XM2。

由于是淘宝卖家,下单时间在凌晨的货也是下午五点之后才会发快递,还好是同城顺丰,今天中午前就拿到了。简单做个开箱:

由于这代将原本的硬质项圈改成了软质硅胶环,所以包装也变小了很多。当然该有的Logo还是一个不少的,像什么小金标、NFC,索尼自家的DSEE HX技术等等,能写上两排。

打开包装,拿出内容物,先是一张提醒我要用Sony自家的App进行连接的挡卡。

盒子里面的东西也被包装起来了,分成收纳包、附件盒和纸质文档三类。

收纳包中自然就有本体。

这代悬挂起来是这个样子的,电池和核心电路都位于左右两边的悬挂体中。

Sony的附件还是管够的,除了收纳盒之外,他们还提供了两种类型三种大小总计六对的替换用耳塞,算上耳机上自带的那一对,一共就是七对耳塞。两种不同的类型指的是在常见的普通硅胶耳塞外,Sony还提供了三对拥有加厚内壁的“舒适”耳塞。另外,必须有的USB连接线和耳机特色功能的3.5mm对录线也一并提供,甚至还有一个用于飞行的航空音频插头。

东西看上去很不错,那么用起来呢?

我首先在自己的Android手机上安装了Sony的Headphone Connect应用,并直接用手机触碰了位于右边的NFC标识进行连接。


NFC位于右侧悬挂

连接很顺利,手机也识别到设备支持LDAC编码,自动使用起它来。

不过首次使用还是要打开App进行一番简单的设置:

降噪功能位于“环境声音控制”中,它有完全降噪、特殊的风噪降低模式和20档环境声音可选,就降噪来说,功能性算是比较丰富的。而其他附带的功能有自适应声音控制——耳机通过传感器数据来检测人的动作与姿态,自行采用最适合的模式。另外像是DSEE HX这个音效增强功能还是需要在应用中手动开启,不过我肯定是不会去用的。

不知道是不是Sony全家蓝牙设备都这样,它不能改名,让我这个有给设备统一命名习惯的人很难受。

难受归难受,新东西还是要好好感受一下的,取下脖子上挂的QC30,用新设备听会儿歌。WI-1000XM2用了一个动铁单元+动圈单元的组合,硬素质上相比只有动圈单元的QC30是要好上一些的。但实际上在刚开声的时候,它会让你深刻怀疑这钱花的不值,因为确实糊。不过在短暂煲机七八小时后,糊的情况有了改善,起码听某首中型编制Live时声场终于是散开来而不是一团了。调音上,相比起QC30的偏下盘走量,Sony还是有些不同,低频量控制的还不错,中高频给个及格分吧,人声并不远,偏流行的取向还是比较讨好耳朵的。

再来谈谈降噪表现,这也是降噪耳机最应该做好的地方。Sony在这方面应该算是追随者,尽管很多人都说他们已经追上了前辈Bose的脚步,但从实际使用来看,还是有差距。WI-1000XM2对人声的消除做的不如QC30,在降噪模式下音量开得不够大,外界人声是可以准确穿透进来的,而在同样位置,差不多音量的情况下,QC30也会让人声穿透进来,但是更为模糊。戴着WI-1000XM2还能听清楚别人在说什么,但是QC30就不行,这让我严重怀疑起之前看的各种评测文章来。不过WI-1000XM2的降噪模式是可以完全关闭的,关闭之后,它跟普通的蓝牙耳机就没啥区别了。


左侧悬挂有电源按钮、3.5mm插孔和USB-C充电口

佩戴方面WI-1000XM2是给到了不错的体验的,后颈接触到的不再是偏硬的项圈,而是较软的硅胶环,异物感要小很多。但有一点要说的是,Sony那用了一万年的扁面条线又立功了,过长的耳机线让听诊器效应重新出现了,只好手动绕耳一圈以减少线材与衣物的摩擦,进而降低听诊器效应。另外还要吐槽下它的线控,WI-1000XM2的线控是正面四个按钮,从上到下为音量+、播放/暂停、音量-和“C按钮”,上部三个常用按键之间没有大的间隔,并且音量+上面还设计了一个小突触以定位,但一般情况下,用户是以面积最大的按键做定位,所以很容易摸错按键位置,比如说想摸音量-却摸到了尾端的“C按钮”然后一按就把降噪等级给改了,幸好中间的播放/暂停键上面有一条长凸起可以帮助定位。另外,线控按键的触发力度过小了,容易误操作。麦克风录音时降噪会关闭,使用的是线控上面的麦,收音效果尚可。


左侧设计了一个用于盲认LR的小凸起,线控上也有类似的设计

最后,总结一下这次消费,两个字:不值。首先,如果是一代或者QC30用户想换新,那么WI-1000XM2并不会在体验上给你惊喜,甚至可以说基本没有区别,甚至从QC30转过来还会发现它只能够连接一个设备了。不过如果是还没有主动降噪相关产品,想入手一款颈挂式主动降噪耳机的话,本着买新不买旧的原则,WI-1000XM2是目前较好的选择。

结尾处还是说一说Sony吧,我真的不明白为什么会有这么多Sony的粉丝,尤其是1000系列,这系列的三种类型产品,实际用下来的感觉都只是中规中矩,不太出众,也有小问题,难怪会变成跳水之王。在这次冲动消费之后,我应该会在较长一段时间内不会碰Sony的产品了。

从硬件编辑的角度解读Xbox Series X的规格

从硬件编辑的角度解读Xbox Series X的规格

在对外正式公开Xbox Series X这台主机74天之后,2月25日,Phil Spencer用一篇新的博文对外公布了这台次世代主机身上更多的细节,想必各位或多或少已经读过新闻了。不过普通玩家可能会对文章里面的很多名词感到陌生,什么Zen 2、RDNA 2、VRS……可能只看懂这台主机被吹上天了。本文就对这些名词简单进行一番介绍,顺便带出笔者作为一个硬件媒体编辑,对于这台主机的一些个人看法。让我们顺着Phil Spencer的文章脉络,一点一点来看。

硬件部分:Zen 2、RDNA 2、VRS、光追的简介

Phil Spencer首先介绍的是Xbox Series X使用的处理器——下一代定制处理器(Next Generation Custom Processor)。这枚处理器比今年CES展会上AMD发布的Ryzen 4000系列APU还要新,Phil Spencer其实早就已经剧透了这枚芯片的模样,在1月头上的时候,他把自己的Twitter头像给改成了这枚芯片的照片。

Xbox Series X上面使用的这枚“下一代定制处理器”中集成了CPU和GPU,CPU部分是这半年来PC市场上表现得非常好的Zen 2处理器,而GPU部分则是基于尚未公布技术细节的RDNA 2架构。那么这块芯片究竟有多强呢?

CPU:基于Zen 2,相对本世代主机有巨大提升

首先来看CPU部分,也就是Zen 2处理器。它是AMD近年来的最大翻身之作,在拥有相同核心数、相同频率的情况下它的综合性能已经可以比肩Intel最新一代的酷睿桌面版处理器(比如说,Ryzen 7 3700X的综合性能压了同为八核的i7-9700K一头,比i9-9900K稍弱),而它在玩家更看重的游戏性能方面也表现得相当优秀,基本上已经有对手90%的功力了。对比本世代主机上面那颗羸弱的Jaguar APU,那提升幅度只能用巨大来形容,原本CPU方面存在的严重短板将不复存在。

GPU:基于RDNA 2,性能可能约在RTX 2080与RTX 2080 SUPER之间

然后来看对于游戏更为重要的GPU。这里Phil Spencer给出了一个具体的数字——12 TFLOPS,这个数字代表的是GPU的单精度浮点运算能力,经常性被用来当作GPU的主要性能指标。但我们并不能单单看这个指标就说新主机的GPU性能会是Xbox One X的两倍,因为它只是一个理论值,实际性能还得看架构,而新主机的GPU架构恰恰就有着巨大的改变。RDNA架构是AMD完全重新打造的显卡架构,在游戏图形效能上面较沿用约八年的GCN架构有很大的提升。比如说,理论单精度性能比RX 580显卡(基于GCN 4.0架构,就是PS4 Pro和Xbox One X上的GPU架构)低1 TFLOPS的RX 5500 XT(基于RDNA架构),其实际游戏性能反而要比前者强。(对于RDNA与GCN架构的实际表现差异,Digital Foundry做过一期视频,有兴趣的可以去看一下:《Navi RDNA vs GCN 1.0: Last-Gen vs Next-Gen GPU Tech Head-To-Head!》)

Digital Foundry推测中的Xbox Series X GPU规格

比较凑巧的是,此前的泄漏显示Xbox Series X的GPU将会集成56组计算单元(CU),Digital Foundry对这枚GPU的单精度浮点性能推算结果正好是12 TFLOPS,所以现在我们可以假设这枚GPU拥有56组CU,那么对比拥有40组CU的Radeon RX 5700 XT(目前RDNA架构的旗舰显卡),它的计算单元规模大了40%,这将会带来显著的性能提升。

因此我们有理由认为Xbox Series X上面的显卡将会比Radeon RX 5700 XT强上不止一个档次。如果放在PC市场来看,RX 5700 XT跟NVIDIA GeForce RTX 2070 SUPER差上半档左右,也就是说,如果不算上RDNA 2架构可能带来的效率提升,Xbox Series X的GPU性能可能会处于RTX 2080到RTX 2080 SUPER之间,这是笔者的保守估计。

RDNA 2带来的VRS和光线追踪支持

新的图形架构带来的不单单是性能方面的提升,在功能性上也终于追上了这个时代,加入了VRS(Variable Rate Shading,可变速率着色)和光线追踪的支持。对于后者,我们见到了它在游戏中的实际表现,而VRS是什么东西呢?

可变速率着色

VRS的原理是通过改变单次像素着色器操作所处理的像素数量,来改变屏幕不同区域的着色质量。简单来说,它可以改变同个画面中不同部分的渲染精细度,它的用处是提高画面帧数。我们还是拿NVIDIA的那张示意图来举例:

在不开启VRS的情况,也就是正常情况下,一帧画面的所有像素都是独立着色的;而开启VRS之后,原本独立的像素被分成了一个个像素块,它们会共享着色结果,此时GPU会根据程序员设定的重要性分级为所有像素块分配不同的着色精细度。拿上面的图片为例,车辆和远景部分的像素仍然是独立着色的,但快速变动的道路和路边的像素块就是区块共同着色的,此时由于显卡的计算资源得到了节约,所以游戏的帧数会有所提高。

目前3DMark已经引入了VRS相关的测试,在该软件的测试中,VRS分为两级,在Tier 1测试中,你会发现画面整体的精细程度都变差了,这是因为整个画面的着色速率都被降低了。

左:VRS关;右:VRS开

而在完整的Tier 2特性下,才会像上面所说的那样对整个画面进行分区,此时的效果就好了太多:

上:VRS关;下:VRS开。现在区别就小了很多。

这项技术最大的意义就是提高帧数,而且分辨率越高它的作用越明显。在3DMark的测试中,一张公版RTX 2070在1080p分辨率下的帧数提升为24.43%,而在4K分辨率下,提升幅度已经达到70.84%,在8K下面更是有116.62%的提升,直接从18帧幻灯片变成了40帧基本流畅的水平(数据来源:超能网)。

这项功能是由NVIDIA最先在Turing GPU上引入的,Intel也在他们的Gen 11核显上面加入了这项特性,我们也终于将在RDNA 2架构中看到AMD方面的支持。所以,这项技术是Xbox Series X实现8K游戏的一大技术利器,如果运用得当,我们将会在不牺牲过多画面质量的情况下得到更为流畅的画面,或是享受到更高分辨率的画面。

硬件光线追踪支持

微软家嘛,肯定会用自己的DXR API作为光追的入口啦。官方也明确说了这是基于硬件加速(Hardware-accelerated)的光线追踪支持,所以很明确的一点就是RDNA 2架构中将会加入新的针对光线追踪的处理单元,一如当年Turing架构中的RT Core,用专用处理单元的形式为光追提供更好的支持。

这方面因为没有太多的信息,所以也没什么可说的。但有一个趋势是很明显的,那就是在主机端的推动下,未来支持光追的游戏将大幅变多。目前的PC市场上面也就只有NVIDIA在大力推光追,但实际收效并不明显,Turing推出一年多了也就只有寥寥十数款已发售游戏支持光追,其中很多游戏也只是浅尝辄止,没有完全应用光追的所有效果。这方面还是需要占据游戏业界主流地位的主机来推动。

功能性:快速恢复、DLI、HDMI 2.1、120fps、四代同堂以及智能分发

在硬件部分之后,Phil Spencer介绍了由新硬件带来的新功能和新特性,主要有SSD存储、快速恢复、延迟动态输入、HDMI 2.1、120 fps支持和四代兼容性、智能分发,对于这部分内容,我们分成一个个小点来看,首先是SSD以及在它支持下的快速恢复功能。

高速SSD带来的超快加载以及快速恢复

新主机将会用SSD这个事情实际上在去年就已经公布了,但我们不清楚的是新主机会用什么规格的SSD,是中端的“够用型”SSD呢还是高端的性能级SSD。现在Phil Spencer似乎暗示了Xbox Series X将会使用高端性能级SSD,因为他使用了“next-generation”来形容SSD。

对于目前的SSD来说,什么是下一代呢?要么存储密度上有提升,要么是接口进入了下一代。恰好,新的Zen 2 CPU带来了新的PCIe 4.0总线,简单的说,它的速度是上代(PCIe 3.0)的两倍。而今年正好会有大量采用PCIe 4.0接口的SSD会上市,像三星就已经在CES 2020上面展出了他们的消费级PCIe 4.0 SSD——980 PRO。因此,完全有理由认为Xbox Series X上面的SSD将会使用PCIe 4.0接口来最大化读写性能。


三星980 PRO,支持PCIe 4.0,图片来自AnandTech

一个多月前,DigiTimes报道过一则群联打入Xbox供应链的新闻

Phison has reportedly broken into the supply chain of Microsoft’s Xbox, while Silicon Motion has seen orders for home consoles with built-in SSDs surge.

我们可能会在Xbox Series X上面见到来自群联(Phison)的SSD,而现在的分析偏向于认为Sony将会在SSD上面和三星进行合作。

讨论完了SSD的可能性,我们来看由它提供支持的快速恢复功能,笔者个人猜测这项功能基于虚拟机快照技术。

常用虚拟机的朋友应该不会对快照这个常见功能感到陌生,它会把虚拟机目前的内存数据和运行状态保存成文件,在下次开启虚拟机/读取快照时就从保存好的文件里面读数据,直接恢复到快照保存时的状态。是不是听上去和官方描述的“几乎瞬间(almost instantly)”、“多个游戏(multiple games)”、“从冻结状态(from a suspended state)”很像?

可能有些读者就有疑问了,虚拟机里面怎么打游戏?那就不用担心微软的技术力了,Xbox One的系统——Xbox OS已经应用了微软自家的虚拟机技术,游戏和系统是分别跑在两个虚拟机中的。Xbox Series X的系统基本上可以确定会沿用目前的Xbox OS,所以这套成熟的虚拟机体系也将会被沿用。而此前因为HDD的读写速度不够而没法启用的快照功能自然就可以用了。

动态延迟输入(DLI)

在使用无线游戏手柄的时候,有一点是无法忽视的,那就是延迟问题。我们这些普通玩家可能没什么感觉,但在高手眼中,这点延迟就已经会造成手眼不同步。原本微软用来连接手柄的就是他们自己开发的一种专有无线协议了,这次他们新引入了动态延迟输入特性,在寥寥一句话的介绍中也智能推测出这是一个用于同步用户输入与显示输出的特性,既然名为动态,那么可能就是根据输入端的连接延迟在输出上面做相应的补偿来保证手眼同步。

HDMI 2.1

HDMI是主机上面常见的用来输出画面的接口,其最新版本为HDMI 2.1,相对于HDMI 2.0,它不仅仅提高了最大支持的分辨率和帧率,更引入了多种新的特性,其中Phil Spencer重点提到了自动低延迟模式(Auto Low Latency Mode)和可变帧率(Variable Refresh Rate),其实这两种特性在目前已经得到了大范围运用了,只不过HDMI 2.1是将其标准化了。

8K@60fps、4K@120fps

HDMI 2.1一举将接口的最大传输速率提升了2.67倍,从18Gbit/s直接提升到48Gbit/s,并且加入了在DisplayPort上面已经成功运用的DSC压缩技术,从而将最大可传输分辨率提升到了10K的高度。不管分辨率是4K、8K还是10K,HDMI 2.1都可以提供最高120Hz的传输帧率,为Xbox Series X的120fps提供了坚实的保障。

可变帧率(VRR)

说到可变帧率,PC玩家肯定是不陌生的,这项特性是用来让显示器的刷新率与显卡输出的画面帧数保持一致,减少画面撕裂现象出现的。目前PC上面有FreeSync和G-SYNC两种方案,前者是AMD主推,并且与DisplayPort接口中的Adaptive-Sync相兼容,目前相关的产品更多;而后者则是NVIDIA主推,但已经推出G-SYNC Compatible对FreeSync做了兼容。

早在2016年,FreeSync就已经可以跑在HDMI接口上了,而近来也有LG的一系列OLED电视机支持搭配N卡开启G-SYNC Compatible,用的也是HDMI接口,未来支持可变帧率技术的电视机将会越来越多,只要他们支持HDMI 2.1 VRR特性,Xbox Series X即可兼容并开启可变帧率模式,为玩家带来更加顺滑的画面,减少撕裂。

自动低延迟模式(ALLM)

实际上Xbox One就已经支持自动低延迟模式,听过AOC电视那期广告节目的应该会记得,电视机的延迟是远高于显示器的,但现在很多电视机厂家都在着重优化这一块,尽量降低内部延迟,为游戏玩家提供更好的体验。而ALLM特性就可以自动进行延迟优化。

根据HDMI官方的说法,ALLM可以简化玩家的操作。在需要时,主机会向电视机发送一个开启低延迟模式的信号,而在不需要时也能够自动关闭掉这个模式以恢复电视内置的画面优化。

其他

实际上HDMI 2.1还引入了很多增强游戏体验的特性,像快速媒体切换和快速帧传输都是崭新的面向游戏应用的特性。前者用来减少在内容之间切换的空白屏幕时间,后者则可以让图像帧更早的到达电视机进行处理,减少Lag情况。

120 fps支持

主机端锁60帧是很常见的事情,但我们应该有点更高的追求。近年来高刷新率显示器的流行让很多PC玩家都认识到原来60帧真的束缚住了我们的视觉体验。其实在手机业界也是一样的,更高刷新率的屏幕可以明显带来更好的观感。本世代的主机可能限于机能问题只能锁60帧,但是对于硬件规格上有巨大飞跃的新主机而言,真的可以抛弃掉锁60帧这个传统了,于是Phil Spencer也写明了,在Xbox Series X上面,帧数上限被拉高到了120帧。再加上强悍的硬件能力支持,以及各路保障视觉体验的特性,在下个世代,玩家的视觉体验提升将不局限于分辨率和画面质量,更是在帧数,画面顺滑度和体感延迟上都会有很大的提高。

四代同堂和智能分发

四代同堂就不用多说了,微软在Xbox的兼容性上面一向是非常良心的,它为新入坑的玩家提供了一个用来回顾老游戏的非常方便的入口,只要有兴趣就可以用一台主机玩前后接近二十年的游戏,甚至不用重复购买。

重点来看智能分发。

有印象的读者可能还记得,在一月中旬的时候Xbox游戏工作室的主管Matt Booty在接受采访的时候确认Xbox Series X将没有独占游戏。给这点带来保障的就是新的智能分发技术,买一次即可在两代主机上游玩,并且有相应的优化版本,还得到了CDPR这个第三方的响应。本身Xbox第一方15个工作室的作品都会采用这种分发模式,再加上第三方的支持,在未来两年中老玩家在老平台上面玩到新游戏应该不是什么困难的事情。

能怎么说呢?Xbox牛逼就完事了。

总结:用户体验至上,核心即为游戏

总的来说,目前官方透露出来的Xbox Series X是一台硬件配置强悍,功能特性着重为玩家服务的次世代游戏主机。还记得本世代初期,Xbox One的惨败吗?很明显,Xbox团队吸取了经验教训,他们不再想做一个有游戏功能的客厅机顶盒,而是专注于游戏,为玩家带来最好的游戏体验。而在本世代中期开始转变的营销思路也得以延续,Xbox现在卖的是服务,Xbox Game Pass得到大家的追捧是因为它很实在,游戏又多又新,而微软也很清楚,订阅制服务实际上是更赚钱的(看看Office 365就知道了)。想要吸引更多的玩家买他们的服务首先要把硬件基础给搞好,于是Xbox Series X就诞生了。

一个加钱就完事儿了的故事:9600KF超5.1GHz小记

最近最火的CPU应该莫过于i5-9600KF,这周一的时候,这枚处理器突然在Intel的京东自营旗舰店理开始降价促销,1399的价格做到了比618还要低的史低,让一直想更换成9700K的我不禁心动,都这个价位了还要啥自行车?于是想到正好在上周六的时候收了朋友的一块Z170,魔改一下应该能上9600KF,低成本换平台,买了!于是当天看到优惠信息后不到半小时就下单了。

这批货应该是新到的,所以都还没有进京东各地的仓库,我的这枚处理器是上海发过来的,沙包的Z170先到了,用笔记本上面的i3-8100试了试,恩,兼容性不错,除了USB会报资源不够和内存兼容性有点小问题不能超手上的双面16GB内存之外其他一切正常,这让我对它能作为9600KF的座驾充满了信心。结果……(其实因为内存兼容性问题还下单了两条威刚金色威龙3600)

周三的时候,9600KF终于到了,上手贴好护舒宝,其实放在华擎华硕等一票除技嘉外的板子上都可以只屏蔽2点+短接2点(微星和蓝天这两家甚至只用屏蔽2点)。上板子,正当我兴冲冲地等着它进系统的时候,又开始卡Windows启动加载的第二个圈了。

无奈,先换回8100检查主板BIOS,用afuwin把当前BIOS备份出来,然后用MMTool查看里面含有的微码信息,发现缺少了针对R0步进的新微码,遂根据网上教程,找来同厂商的Z390板子BIOS,将微码移植过去,然后再用afuwin给刷上,一切看似很顺利应该是没有毛病了,结果仍然开机卡加载。

9代处理器步进情况,注意从9600KF和9600K基本都是8核屏蔽而来的,而且还分R0和P0两种步进,其中R0步进可以硬件免疫Spectre。

一头雾水之下只能认为是BIOS有问题,但在网上基本找不到解决办法,因为R0步进太新了,很少有人把新的R0步进处理器放在老主板上面用,无奈第二天还要跑上海,遂睡觉。

睡了可能只有三个钟就爬起来赶飞机了,地铁上面刷了下什么值得买发现京东上微星的Z390系列板子稍微有点优惠,考虑了一下觉得自己是没有能力解决那块Z170的BIOS问题了,于是直接下单MPG Z390 GAMING EDGE AC。

在广州和上海间当天来回还是有点累的,但是挡不住我用上新主板的兴奋之情。没几分钟把CPU显卡内存两块SSD和风扇全部搞定,然后插上电源开机,顺利点亮。然后直接进BIOS,先测试内存能不能上3200,打开XMP重启,很顺利就跳上3200了,然后再把处理器倍频拉到50,电压先开了自动。很顺利地直接进了系统,打开CPU-Z,看到了从来没见过的5GHz。

然后打开AIDA64单拷FPU,观察到电压为1.34V,体感稍微有点高,想降一点,因为稍微降一点可以让CPU温度更低,散热器更好压,于是安装了Intel XTU,在Windows下面开始降电压,到1.3V的时候我感觉差不多了就没往下降,此时倍频其实可以再往上拉一档,5.1GHz单拷FPU过关,4热管的利民刺灵AS120可以把满载功耗120W的9600KF压在75度,很满意了。

进《刺客信条:奥德赛》简单benchmark了一下,同样显示配置的情况下,平均帧数上升了有10多帧,而高频CPU最大的优势——电子竞技游戏不掉最低帧我还没测过,但是想来这块5GHz的9600KF比我原本超频至3.8GHz的E3-1231V3肯定是要强得多了。

然后就是把BIOS各种选项都开起来,我是不喜欢CPU没负载的时候还加着一个1.32V这么高的电压的,所以在设置里面把电压控制改成了自适应+Offset,手动给了+0.08V的Offset,这样主板的电压在满载的时候最高可以达到1.32V,而在没有负载的时候也会自动降压。

而内存,因为从朋友那儿借了闲置的两根单条16GB的DDR4-3200内存,自己又下单买了一组8GBx2的套装,所以想着能不能插一块搞个48GB内存系统,事实证明是可以的,只要两个通道的内存容量相等、频率和时序设定一致即可开启,手动在BIOS里面把时序改成差的那一套内存上自带XMP信息中的就可以把频率调至3200,并且十分稳定。

这次时间几乎长达一周的折腾让我明白了,有些问题,加钱真的就完事儿了……

另外值得一提的是,想摸CJR颗粒的朋友可以买威刚的金色威龙,我推荐别人、自己、还有朋友那儿一共四套金色威龙,频率从3000到3600全部都摸到了CJR颗粒。

老平台:

一场因为BIOS版本太老而引发的无法进入系统悬案

前几天朋友的老平台主板坏了,他也正好打算要换一套平台,于是找我写了个配置单,随后在京东上面下单了,京东发货速度很快,没两天东西全都到了,配置单就不晒了,我随手写的,免得被评论吐槽哪里哪里有问题,就用了9700K+Z390+2060SUPER。也正好因为是在新一轮促销开始前夕,所以整套平台的价格买贵了有个小一千,不过早买早享受嘛。

这周日,我过去朋友家里装机。装机我虽然不是很熟练,但是大部分细节我都是注意到了。装箱走线又多花了半小时,搞定之后一次就点亮了,随后在 BIOS 设定里面把内存的 XMP 开起来,频率上到 DDR4-3200 也没出现内存不兼容的现象,看上去一切都挺顺利的,然后我掏出做好的 Windows 10 原厂安装 U 盘准备安装系统。

插U盘,开机,按 F12 选择 U 盘启动!正当我等着 Windows 10 安装那个偏紫色的界面出现的时候,突然,Windows 启动界面那个用来提示正在加载系统的滚动圆卡住了。

我有点懵,心想,不应该啊,这镜像我验过 SHA-1 没有完整性问题啊。出于对微软品质的不放心,我马上重新下了一个稍老版本的 Windows 10 1903 安装镜像准备重新做安装盘,心想,嘿,这个版本我用过的,肯定没问题。

下好镜像打开 Rufus(极力推荐用这个开源免费软件来写镜像)打开镜像写入,很顺利。

插 U 盘,开机,按 F12 选择 U 盘启动,又卡住了!重新尝试了几次,每次都卡在这个地方。我把安装 U 盘插到自己的笔记本上面,很顺利地进入了 Windows 10 安装界面,看来不是镜像的问题。思索了一番,可能是内存超频的问题,于是进 BIOS 还原到默认设置,再重启,还是卡。

难道是我装机的时候哪里出问题了?于是把机箱两侧版再次打开,检查了一番发现没有问题啊,我装的100%没有问题。于是只能进入 BIOS 寻找问题可能所在之处,同时搜索这块板子,看看网上有没有遇到相似问题的人。

还真有,在搜索结果的第一位就是该主板的官方论坛中一个报告自己遇到无法启动错误的用户,简单看了下, 是 BIOS 版本的问题。

难不成到手的主板上面默认的 BIOS 还能让你进不去系统,进不去系统安装盘的?我留意了一下 BIOS 的版本,然后上官网找了主板的驱动下载页面,发现 BIOS 确实比较老,落后最新的已经有三个版本了。于是下载最新的 BIOS,刷入,再插启动盘,很流畅地进入了熟悉的 Windows 10 安装界面。

这里就不点名是哪块板子了,这次装机的经历让我明白了出厂 BIOS 并不是像网上很多人说的“最稳定”“可靠性最高”,而是很可能就问题百出,还是推荐大家上手就直接更新到最新稳定版的 BIOS,甚至一些 beta 版的 BIOS 版本都是可以尝试的,很多疑难杂症和平台小毛病通过 BIOS 的更新都是可以解决的。

PC 硬件史话(三)

引子

上回我们说到上世纪七十年代末期,由 Altair 8800 引发的微型计算机普及浪潮以及各种公司各种机型间的大战。让我们继续顺着时间线前行,来到激动人心的八九十年代,首先登场的,便是 IBM PC。

IBM Personal Computer

新兴的个人计算机市场发展之迅猛是大公司们都始料未及的,据统计,1979年 PC 市场的销售额就达到了1.5亿美元,并且这个数字还在以每年超过 40% 的增速发展。如此具有前景的市场很难不吸引大公司们的眼球,随着 IBM 的一批同级别的竞争对手,如惠普和德州仪器等大厂的入场,IBM 也开始了自己的个人计算机设计之路。时任总裁约翰·欧宝和 CEO 法兰克·卡里在公司内部设立了很多有半自主性质的“独立业务单元”以鼓励创新,而后来的 IBM PC 缔造者之一,威廉姆·罗威,被任命为入门级分部的负责人,准备开发一款面向个人的微型计算机。

IBM 5150

首先,他们展开了市场调查。经销商们普遍回应对 IBM 的 PC 十分有兴趣,但是新的产品不能以 IBM 以前的那种风格来设计、售卖,他们要求 IBM 必须使用标准的元器件,以方便维修服务。鉴于 Apple Ⅱ 的畅销,就算是经销商们不喜欢苹果公司的做法,他们也没有办法。然而他们更加不指望 IBM 会改变以往的风格和官僚作风,去推出一款符合市场需求的微型计算机。

急于推出自家微机打入市场的 IBM 想到了走 OEM 的路子,正巧雅达利有成为 OEM 制造商的意愿。于是,罗威在 1980 年七月份的一次高层会议上提议用基于雅达利 800 的平台来打造第一款 PC,同时还提议收购雅达利,原因是“因为在 IBM 的文化基因中,我们没法做成这件事”。CEO 卡里也承认了罗威对于企业文化的描述,在当时的 IBM,需要四年和 300 人的团队才能打造出一款个人电脑。作为收购雅达利的替代方案,高层给予了罗威尝试的机会——允许他组建一支独立的开发团队,而罗威保证,在不用 IBM 传统方式的情况下,他可以在 30 天内给出原型,在一年的期限中做出成品。

当时世人都不相信 IBM 可以如此之快的推出自家的 PC,甚至于有分析师说:“要让 IBM 推出一台个人电脑就好像要教会一直大象跳踢踏舞”。事实上,在 1980 年八月份的展示中,他给出的原型机还仅仅处于勉强能运行起来的阶段。不过,雄心勃勃的罗威在当时已经制定了一份详细的商业计划,其中对于新型计算机的描述是一个开放式架构,可以采用非专有的软硬件,同时在实体店中售卖,而这些全部有违于 IBM 的传统。

不过高层却十分看好罗威的计划,在总裁欧宝的强力支持下,罗威组建了一个仅有 12 人组成的独立团队,这其中就有 PC 之父——唐·埃斯特利奇,当时他刚从一个失败的小型机项目中退出来。唐·埃斯特利奇主动请缨担任团队的领导人物,为了在一年之内端上成品,他们决定采用市场上已经成熟化了的标准方案。到了四月份,整台机器的硬件配置被确定了下来。在核心的 CPU 选择上,他们采用了已经在 IBM 别的产品线上使用过的,有着不错软件适配基础的 Intel 8088,而不是等自家更强的新处理器完工。另外,他们在硬件上还预留了可以让用户自行扩展的接口。而在操作系统方面,他们与当时并不知名的 Microsoft 合作,将 DOS 搬上了自家的 PC 平台,命名为 PC DOS,同时新产品也兼容流行的 CP/M 系统,意味着上市即有非常多的软件不用重新改写编译即可在 IBM PC 上面运行。

经过一年的紧张开发,1981 年 8 月 12 日,IBM 正式发售了 Personal Computer,型号为 5150,定价 1565 美元,包含主机和键盘,可选配显示器和打印机。他们还请来了默剧大师卓别林的经典角色——小流浪汉,来主演一系列的电视广告。

得益于优秀的设计和侧重“个人化”的广告宣传,IBM PC 一上市就取得了巨大的成功,到 1984 年,系列已经占据了整个 PC 市场三分之一的份额。IBM PC 接过了由前辈传过来的计算机普及化大旗,引领了这场一直持续到二十一世纪的信息化革命。1982 年年末,《时代》周刊把“年度人物”更改成了“年度机器”,将 IBM 5150 搬到了自己的封面上。

成为行业标准

成功的不仅仅是 IBM 5150 这么一款机型那么简单,它如同当初罗威计划的那样,使用了开放的硬件架构,还预留了可扩展接口。团队还将 PC 的设计公知于众,每台 PC 都附带了一本技术参考手册。标准、通用的组件和预留的可扩展接口使得用户可以自行安装相兼容配件,比如可以把内存从 64k 扩展为 128k 等等。开放标准也使得 PC 拥有了一大批为其制造配件的厂商,大大促进了微机行业的整体发展。

硬件上用了通用组件,而细节又都公布在外,这不是给“山寨”留了非常大的口子吗?很快,其他的一些公司开始模仿 IBM PC 推出自家的 PC 产品,这其中大部分都是直接复刻了 PC 的设计。不过尽管 IBM 几乎公开了全部细节,但唯独保留了 PC 的一个基础软件模块——基本输入输出系统也就是 BIOS——没有完全公开。这难不倒人,一些大厂通过逆向工程分析并成功的以不侵犯著作权的形式重新实现了与 IBM PC 兼容的 BIOS,随后顺利推出了自己的 PC,这其中大部分都与 IBM 的 PC 相兼容,也就是说在 IBM PC 上能够运行的程序都可以直接拿来跑,可以用在 IBM PC 上的配件组件可以直接插在自家的机器上用,中文的兼容机最早可能就是指代这些与 IBM PC 相兼容的机型。随着 IBM PC 的热卖以及市场上与其相似的机型日益增多,IBM PC 开始成为个人电脑行业的事实标准,兼容这个标准就可以得到几乎是整个市场的配件以及软件支持,而且并不需要任何的授权费用,何乐而不为呢?

后来,随着行业不断推出升级的机型,PC 标准也在不断地升级进化,在经历了与苹果的麦金塔(Macintosh)等挑战者的竞争并最终取胜之后,它一直被行业延续使用到了今天,可以说,如果没有当年 PC 研发团队的明智决定,现在我们可能就使用不到如此平价、多种多样的个人计算机设备了。

Intel 的崛起

讲完了 PC 标准一统江湖的故事之后,让我们重新把目光转回到我们本系列文章第一章的主角——Intel 的身上。

从 286 到 386

1982 年,Intel 发布了 80286,这是一枚在 8086 基础上的改进型处理器,从图中我们可以看到,80286 的外形已经开始靠近我们现在常见的处理器长的那样子了。它仍然是一枚 16 位处理器,但是加入了保护模式(简单来说就是可以保护程序实际内存地址不为人所知),并且完全兼容针对 8086 系列编写的程序,不久之后它被 IBM 采纳用于 PC 的升级型号——IBM PC/AT 上面,随着 PC 市场的火热,它也广销世界。

伴随着计算机行业的飞速发展,内存也在不断变大,但是一枚 16 位(内存寻址总线宽度)的处理器能够直接访问的内存只有 2 的 16 次方字节,也就是 64 KiB 的空间,这大大制约了程序员的发挥,于是一枚基于 x86 架构并且能访问更大的内存空间的 CPU 便应运而生了。

1985 年,Intel 推出了 80386,在提供 32 位内存寻址能力的基础上保留了对以前处理器的完全兼容,这只是它的一部分新功能,80386 对后世影响更为深远的,便是将首次出现在 80286 中的保护模式进行了升级改造,使处理器能够支持更为现代的多任务操作系统。80386 给现代 x86 处理器打下了基本框架,而之后在 1989 年发布的 80486 将原本外置的缓存和浮点运算单元搬入到 CPU 内部,至此,现代 x86 处理器彻底定型。

爱恨情仇

前文提到过,x86 指令集的前身本来是 CTC 公司用来充当 8008 的开发费用“支付”给 Intel 的,也就是说 Intel 拥有其所有权。那么为什么至今世界上都还有第二家公司可以设计生产使用 x86 指令集的处理器呢?这还得从本系列文章的第一章最后留下的伏笔说起,那是 Intel 与 IBM、AMD 的两段爱恨纠葛。

IBM 当年在采用 8088 作为第一代 PC 的 CPU 时,根据当时半导体行业“第二供应商”的行规,向 Intel 施压,要求其与另一家公司合作供货,后者找到 AMD,签下了一份长期合作的协议,还有不少芯片生产厂商同时也获得了 Intel 的授权,所以当时的市场上可以见到来自不同厂商的 80x86 芯片。不过到了 80386 推出的时候,Intel 已经决心将主营业务由生产存储芯片转移到中央处理器的设计生产上面去,为了保护自家的知识产权和盈利,他们不想让别的公司成为 80386 的第二供应商。而 IBM 此时有了自己的小心思,可能是觉得用自家都可以造的 286 比较靠谱,可能是不想让 Intel 独占自己的货源,抑或是别的什么不可说的原因,总之不想用 386,而 Intel 的做法正好给了 IBM 一个不用 386 的借口,于是我们没能见到 386 被率先应用在 PC/XT 的后续机型上。

那么 386 该卖给谁呢?康柏(就是后来被惠普收购的那个)伸出了橄榄枝,最先与 Intel 合作推出了新的机型,市场反响热烈,很多生产商开始克隆康柏家的新机器。而 Intel 靠着 386 的先进设计和强大性能,一时间风头无两。但是 AMD 不乐意了,几年前签下的长期授权协议就被你这么单方面撕毁了?那么法庭见。现在有的说法是 Intel 将 AMD 状告上法院,有的说是 AMD 为原告,总之这对本是同根生的“兄弟”走上了法庭,这场官司一直打到 1990 年以 AMD 的胜利而告终。期间 AMD 也没闲着,逆向完了 386,在 1991 年的时候就推出了自家 100% 克隆出来的 Am386,以低廉的价格和比原版更高的主频打下了不少市场份额。

不过这都没有妨碍 Intel 在 1992 年的时候成为世界范围内半导体行业排行第一的领军者,不幸的是,创始人之一的罗伯特·诺伊斯没能等到如同他儿子一般的公司登顶的那一天。1990 年 6 月 3 日,诺伊斯因为心脏病发作去世,享年 62 岁。

Intel Inside

就在人们纷纷认定 Intel 下一代的 CPU 会被命名为 80586 之时,Intel 却在 1993 年 3 月 22 日发布了全新的奔腾(Pentium)处理器。这个新造出来的单词由希腊语中的五”penta”与拉丁语中用于命名元素的词尾”ium”组成。奔腾处理器是 Intel 首次用商标命名自家的处理器,从此,Intel 家的处理器受到了商标权的保护。

奔腾带来的不止是新的名字,还有新的架构。在被内部命名为“P5”的微架构中,Intel 首次引入了超标量体系,简单说来就是可以使处理器内部的多个执行单元并行化执行指令,提升效率;另一个重大改变发生在 486 转移进处理器内部的高速缓存上,从原先的通用(可以同时存放指令和数据)缓存分成了专用缓存,一半存指令,一半存数据,这种缓存设计至今仍然被保留着。

同时,Intel 开始大力推进品牌宣传,那段由五个音符组成的短旋律搭配上”Intel Inside”成为了 Intel 后来用了二十多年的经典宣传组合,深入人心。

Wintel

上世纪九十年代中期,Intel 俨然已经成为了 PC 行业的领头羊,由它参与主导制定了多种业界标准,比如用到今天的 USB 就是典型的例子。那么为什么 IBM 没能保持住自己在 PC 市场中的标准制定者的地位呢?让我们把时间倒回到八十年代。

上文提到,PC 标准是根据 IBM PC 来的,但它更是一种开放标准,想要以一己之力控制一个有数百家企业参与的开放标准,是一种妄想,而 IBM,正好就是这个做白日梦的人。1987 年,IBM 推出了 PS/2 系列机型,其中使用的扩展总线为 IBM 新设计并专有的 MSA 总线,这与市面上已经大量存在的 ISA 卡不兼容。而数量众多的制造商也不愿意使用新的 MSA 标准,首先,用新的总线制造扩展卡要向 IBM 缴纳一笔专利使用费,这与之前 ISA 总线的开放态度截然相反;其次,新的卡只能用在新的 IBM PS/2 系列机型上面,无法与市场主流所相容。所以最终妄想通过新机型来重获 PC 标准主导权的 IBM 并没有得逞,反而逐渐被时代所抛弃。

但是业界还是需要一个领导者,需要有人出来振臂一呼建立规范行业标准,这个位置,由全面占有 PC 处理器市场的 Intel 来坐,最为合适不过了。

Intel 也当仁不让,1992 年,它开始将自家的 PCI 标准随着处理器一起推向市场,同时联合 PC 市场中几个占有率比较高的厂商,成立了 PCI-SIG 联盟,以开放共赢的态度推广 PCI 标准,最终 PCI 成功取代了之前的 ISA 等总线,成为了行业通用标准,甚至连使用 IBM PowerPC 架构的苹果麦金塔系列电脑都开始使用它。而后来的 USB 也是相似的发展历程:Intel 联合了许多业界巨头一起制定标准,并且不收取授权费用,而也正是因为这些原因,USB 在九十年代与 IEEE 1394 的战争中获胜,一直沿用到了今天。

而另一边的软件行业,微软的 Windows 逐渐占据了桌面端操作系统的领先地位。不出乎意料的,两个行业巨头走到了一起,Wintel 联盟顺利成为了整个 PC 行业的主导者,一直到二十年后的今天,仍然没有人能够撼动这个地位。一台使用着 Intel 的 CPU 和微软的 Windows 操作系统的个人计算机,就是人们口中最常说的电脑。

结语

PC 已经统治了人们的桌面电脑,CPU 行业也被 Intel 所把持着,但对于游戏玩家而言最为重要的显卡,我们一点都没有涉及到。事实上,在九十年代初期,桌面端的图形显示也就是刚刚才起步的样子,下一章,我们将把重点转向显卡领域,感受一下那些经典的老游戏们和在它们背后工作着的老显卡们。

PC 硬件史话(二)

导语

这期史话笔者将视点从 CPU 这个单一元件转移开,来讲讲 PC 标准出现前的那些故事。

DEC 与小型机

Minicomputer,中文中多称为小型机,用今天的眼光来看,小型机其实并不小,大多数都还是有个立柜那么大。不过在微型计算机出现之前,小型机占据了计算机市场的大半江山,而要说起小型机,不得不提的就是影响了整个计算机历史的 PDP 系列和它背后的创造者—— DEC 公司。

从 TX-0 到 PDP-1

让我们把时间倒回到上世纪四五十年代,现代计算机刚诞生不久的时候。那时的计算机动辄几个书柜的大小,更大的可能占据几个房间,并且造价普遍十分昂贵。而从六十年代开始,随着晶体管和集成电路的大规模应用,计算机开始了小型化之路。首先出现的,是 1956 年由麻省理工学院林肯实验室(MIT Lincoln Laboratory)研发出的首台全晶体管计算机—— TX-0,这台计算机不久之后被 MIT “借走”拿去当教学仪器了。

TX-0

随后,两名 TX-0 的工程师肯·奥尔森(Ken Olsen) 和 Harlan Anderson 在 MIT 注意到了一个奇怪的现象:明明学院里有同样提供给学生用并且更快的 IBM 的大型计算机,但学生就是喜欢在 TX-0 那儿排长长的队伍来尝试一下它。思索之后,他们认为小型计算机是有市场前景的,并且不是所有人都需要大型机那么强的性能,对于某些特定用途,低成本的解决方案就可以满足需求了;还有些用户往往更在意机器的图形输出或是实时可操作性而非机器的性能。

于是在 1957 年,TX-2 项目遇到严重困难之后,他们便离开了实验室,想用自己的理念拉到投资来推出产品。然而当时业界并不景气,小公司不断成立又破产,而诸如 RCA 和通用电气之类的大公司在计算机市场也讨不到好处。他们千辛万苦才拉到美国研究发展公司(American Research and Development Corporation)公司的投资,不过投资人 Georges Doriot 出于对市场的担心,要求他们变更原来的商业计划,把重心少放在计算机业务上一点,甚至还要求他们把公司的名字从原来的「数字计算机公司(Digital Computer Corporation)」改成了「数字装备公司(Digital Equipment Corporation)」(后文简称 DEC)。

没有办法,公司开头只能听投资人的,DEC 开始生产名为「数字实验室模块」的系列产品,这是一种集成了电子元件和晶体管的电路板,可以用来组建计算机。结果推出之后还挺受其他计算机公司欢迎的,他们买来组建测试自己系统的设备,在不景气的五十年代末期,这个产品线让刚成立的 DEC 开始盈利了。

数字实验室模块

有了成功的产品线之后,DEC 开始将重心重新转回他们最初想做的小型机上。很快,在 1959 年末,采用新设计的计算机诞生了,同样为了规避风险,新的计算机的命名避开了 Computer 一词,新造了「可编程数据处理器(Programmed Data Processor)」这样一个有些拗口的名词。新的机器是系列第一台,即为 PDP-1,比起它需要占用半个房间的祖先 TX-0 来说,它小了很多,而性能却更强。它还拥有一块配套的 CRT 显示器,具有高速显示点阵的能力,用特殊的指令就可以让上面显示图片,这也是最早具有图形显示能力的机型之一。后来在 1961 年 9 月,DEC 向 MIT 捐赠了一台 PDP-1,就摆在 TX-0 的旁边。

PDP-1 的特殊意义不仅仅在于它的小型化上,更在于更深远的文化层面上。这款机型不但推动了黑客文化的发展,还孕育出了最早的电脑游戏——《太空大战(Spacewar!)》。对于软件领域来说,它更是意义非凡——一系列直到如今我们都仍在使用的软件类型的开山鼻祖就是在 PDP-1 上开发运行的,比如最早的文本编辑器(Notepad 记事本类),最早的文字处理器(文字排版类软件),最早的可交互式调试工具和最早可稳定运行的国际象棋程序等。

计算机历史博物馆中的 PDP-1 和《太空大战》的创造者史蒂夫·拉塞尔

PDP-8 和 PDP-11

在 PDP-1 推出之后 DEC 没有停歇,用今天的话来说就是疯狂刷机型,1960 年 PDP-3,1962年 PDP-4,1963 年 PDP-5,1964 年 PDP-7。这其中有的销售不佳,如 PDP-4 就非常惨淡,而 PDP-6 项目则直接因为市场反映不佳而直接搁浅;但继续走小型化之路的 PDP-5 却非常受市场欢迎。于是,秉承着 PDP-5 的理念,在此基础上进行大幅度改进的 PDP-8 被刷出来了。

PDP-8

1965 年 3 月 22 日,PDP-8 发布,这是一台可以放在桌上使用的小型机,比起它的前辈们,在性能上可能有所不足,但是它足够“小”,而且更便宜:它标价 18500 美元,是首台售价低于两万美元的小型机,后续的 PDP-8/S 甚至卖到了一万美元之下,这在当时的市场如同一颗价格炸弹一般。而市场的反映也证明了人们对它的喜爱:PDP-8 系列产品一共卖出去了 30 万台,直接推动了 DEC 在上世纪六十年代中后期到七十年代中期称霸小型机市场。

之后在 1970 年,DEC 推出了 PDP 系列中销量最高的机型——PDP-11,这同样也是一台无论在硬件还是软件方面都对后世有着深远影响的机器:硬件方面,PDP-11 的架构设计影响了整个后七十年代的微处理器的设计,包括 Intel 的 x86 系列处理器和摩托罗拉那著名的 68k 系列处理器;而在软件上,今天互联网世界的基石之一——Unix 系统的首次正式出现,就是在 PDP-11 上面;还有后来流行的 CP/M 及其后继者 DOS 系统等,均受到了 PDP-11 原生系统的启发。正是因为 PDP-11 优秀的、满足时代需求并有些超前的设计,使得 PDP-11 从 1970 年问世一直卖到了九十年代,总共销售六十多万台,被不少评论家誉为“最受欢迎的小型机”,比尔·盖茨曾在他的简历里着重提到过有 PDP-11 的编程经验。

PDP-11

DEC 与今世

说到这里,让我们回头看看 DEC 创始人在 TX-0 前做出的思考,他们对于计算机小型化趋势的判断是多么的精准,而除了这点之外,DEC 还对今世有着非常重大的间接贡献,比如:

  • 与 C 语言的渊源
    Unix 最早是用 PDP-7 的汇编语言写成的(当时还没有一个正式名字),为了移植到 PDP-11 上面,核心开发人员不断开发改进新的编程语言,而 C 语言就是这一阶段性完成产物,直到今天 C 语言标准中仍残留有 PDP-11 指令的痕迹。
  • 与 Windows NT 的渊源
    在 PDP 系列之后,DEC 继续推出了 VAX 系列,他们将其称之为超级小型机(Superminicomputer)。VAX 系列上运行的系统是重新设计编写的 VMS,其核心设计师戴夫·卡特勒(Dave Cutler)后来被微软招入麾下并领导了 Windows NT 的开发,他把 VMS 的不少理念带入到了 NT 上,甚至后来有说法称 Windows NT 是 VMS 的重新改进版本,而 NT 内核也一直被微软沿用至今。值得一提的是,戴夫·卡特勒后来还领导开发了 Azure 平台,再后来设计了 Xbox One 的系统架构。

巅峰与衰亡

不过有句话说的好:“王权没有永恒”,这句话同样可以套用在 DEC 身上。回首上一篇文章,PDP-11 推出之后不久,Intel 的 8008 就登上了舞台,单片式微处理器技术的成熟使得计算机行业掀起了一波更加汹涌的微型(Micro)化浪潮,其结果直接导致了微型计算机(Microcomputer),也就是我们现在使用的这代计算机的成熟和普及。而 DEC 作为小型化的先锋,却抗拒着新的浪潮。

1974 年,公司的研发组已经证明了微机的可行性,甚至给出了两台原型机,然而奥尔森却选择中断了这项企划。1977 年,DEC 又同样拒绝了开发个人电脑的提案,奥尔森甚至说「个人没有理由在家里放台计算机(There is no reason for any individual to have a computer in his home.)(后来他澄清他说的 Computer 指代的不是现代意义上的 PC)」。

历史证明了 DEC 选择了一条错误的道路。八十年代初期,在看到 IBM PC 大获成功之后,他们才迟迟推出自家类似的系统,但 PC 业界最经典的定律已经开始生效了——不兼容就会死。DEC 的新品不兼容 IBM PC 标准,没办法直接运行当时需求最猛的电子表格软件 Lotus 1-2-3,他们的新系列叫好不叫座,这也为日后 DEC 的衰败埋下了伏笔。

八十年代中期,PDP-11 以及后继者 VAX 系列的畅销将 DEC 带上了巅峰,市值超过 2 亿美元,拥有十万雇员,是计算机业界仅次于 IBM 的巨擘,甚至可以撼动它的位置。不过巅峰之后便是下坡路,微机市场打不过 PC,小型机市场也开始被新入场的对手蚕食,管理层昏招频出,大量资金竹篮打水一场空,而原有的不少合作伙伴纷纷离去。

九十年代开始,DEC 已经尽显颓势,经历了各种分拆之后的公司最终于 1998 年 6 月份被当时业界最牛的康柏(Compaq)收购了。

IBM PC 出现前的洪荒年代

愈演愈烈的微型化革命年代里,可谓是群雄四起。1972 年末,一家法国公司用 Intel 8008 为核心开发出了一款计算机,并用了 “Micro-ordinateur” 作为它的注册商标,在英语中,这个词等价于 Microcomputer。不过发明这个词的人并不是他们,而是大名鼎鼎的艾萨克·阿西莫夫(Isaac Asimov),他在 1956 年的短篇小说 The Dying Night 就已经使用了这个词。

Intel 8008 似乎特别受欢迎,早期的微机大多采用了 8008 作为他们机型的中央处理器。1974 年 4 月,Intel 发布了 8008 的加强版——8080。就是这枚处理器,真正拉开了微机普及的序幕。

Altair 8800

现在一般认为的首台商业成功的微型计算机就是 MITS 公司在 1974 年出品的 Altair 8800,而且这是 MITS 转型做计算机之后的第一个产品,在这之前 MITS 的主营产品是计算器。1972 年,由于 TI 的强势介入,计算器市场不好混了,MITS 的老板艾德·罗伯茨(Ed Roberts)决定转型去做计算机。1974 年他选定了当时刚发布不久的 Intel 8080 作为中央处理器,不过因为 8080 的官方定价略高,决心做平价计算机的罗伯茨跑去跟 Intel 砍价,他有着多年的 OEM 采购经验,谈价很厉害;而 Intel 那时候主营业务还是存储芯片,不懂小批量微处理器的定价。所以最终罗伯茨成功地把单片价格从 360 美元谈到了 75 美元。

十月份,他们完成了第一台原型机,并快递给了《大众电子*(Popular Electronics)*》杂志社,结果不巧的是,他们撞上了快递公司的罢工潮,杂志社并没有收到这台原型机。幸好,他们提前联系的杂志编辑手上已经有了不少这台机器的照片,于是在当年年末出版的杂志封面上,Altair 8800 正式登场了,这是一台可扩展的实用微型计算机,整台机器只需 439 美元!

七十年代初,计算器和电子游戏的普及让大众认知了计算机的威力,而数字化产品也吸引着越来越多的电子爱好者。于是这么一台平价但是实用,而且扩展性还不赖的机器一上市就火了。这是罗伯茨自己也没想到的事情,原本他预想能卖 800 台已经很不错了,结果一个月内他们就收到了一千份订单,五月末的时候这个数字已经变成了 2500 台,到了八月,这个数字又翻了一番,还有不少订单是直接买组装好的机器。

而在 Altair 8800 身上最出名的故事可能已经为很多人所熟知了:我们亲爱的比尔·盖茨和他的好友保罗·艾伦为它开发了一套 BASIC 语言解译器,并察觉到了软件行业存在的巨大机遇,随后便创立了 Micro-Soft。

在 Altair 8800 之后,许多公司察觉到了新的商机,于是乎类似的微型计算机如雨后春笋般开始出现,它们大多采用一块 8bit 的处理器比如 Intel 的 8080 或者 Zilog 的 Z80,采用了兼容 Altair 8800 的 S-100 总线,运行着 CP/M 之类的操作系统。在这波创业大潮中,就有苹果电脑公司,他们的 Apple II 获得了巨大的成功。也是摆这股潮流所赐,越来越多小公司也能用得起计算机来做数据库管理、会计还有文字排版之类的活。

不过最终使得微机走入千家万户的,还是有请我们的主角——PC。

结语

所谓合久必分,分久必合,微型计算机野蛮生长了足够长的时间了,是时候该有人出来一统江湖了!

参考

  1. PDP-1 Restoration Project
  2. The PDP-1
  3. The Development of the C Language
  4. DEC创始人、小型机之父:肯·奥尔森
  5. DEC’s Blockbuster: The PDP-8 - CHM Revolution

PC 硬件史话(一)

成立之初的 Intel 和 AMD

Intel 篇

书接上文,NM Electronics,在创立的头个月底改名成 Intel。据称,Intel 这个名字是启发自 integrated 和 electronics 的整合。

Intel 成立初期的主要业务并不是微处理器的开发与制造,而是瞄准半导体存储器市场,公司的首款产品便是 SRAM(静态随机存取存储器,现多见于 CPU 内部)—— Intel 3101。

3101 推出于 1969 年,比当时市场上的同类产品快了接近一倍。同年,Intel 还推出了 1101 和 3301 两款产品,前者是创新性地将 MOSFET 工艺运用于存储器制造的产物,后者则是一款只读存储器(Read-Only Memory)。虽然 3101 和 1101 这两款产品都颇具创新意义,但是影响并不大。真正使 Intel 开始出名的,是 1970 年发售的 1103——世界上第一款商用的 DRAM(动态随机存取存储器,也就是今天最常见的内存类型)。1103 在 1972 年成为了最为畅销的半导体存储芯片,并成功地在许多应用场合完成了 Intel 原本的设想——取代当时最流行的磁芯存储器(Magnetic-core memory)。

AMD 篇

与 Intel 不同的是,AMD 在成立之初原本是仙童半导体和国家半导体(National Semiconductor)第二供货商,专注于制造芯片,并引入了美国军方标准作为质量管理标准。要知道,在早期的计算机工业里,微芯片不可靠的质量是各大客户都极力想避免的问题,所以 AMD 靠这个赢得了一些优势。

在 1969 年 11 月,AMD 推出了它自己的首款产品:Am9300,一款移位寄存器。之后陆续推出了一系列畅销的元器件。

在 1971 年,AMD 进入了内存芯片市场,同年公司的销售额就已经达到了四百六十万美元。

到 1975 年,AMD 一共生产着 212 种产品,其中 49 种是自主研发的。

4004 与 8008

Intel 4004

终于讲到 Intel 的第一颗微处理器(Microprocessor),4004 的故事了。

1969 年,Busicom,一家日本的计算器公司拿着自己设计的一套由 12 枚 IC 组成的计算器引擎方案找到了刚成立不久的 Intel(其实是 Intel 主动去接触的),想让他们完善并生产这套引擎。然而 Intel 方面给出了一套更加优雅的方案,1971 年初,由 Federico Faggin 领导的开发团队设计出了一套只需要 4 枚芯片就可以取代原来的 12 枚芯片的芯片组,也就是后来的 MCS-4 芯片组,其中的核心便是大名鼎鼎的 4004。

4004 使用了 10 微米的制程,一共集成了约 2300 个晶体管,最高主频为 740 kHz,数据位宽为 4 bit,每秒最多能执行约 92000 条指令。这些参数在当时虽然并不是最强的,但因为它是市场上首款通用可编程处理器,又是全球首款商用单片微处理器,所以就像 1971 年 11 月 15 日 Intel 在 Electronic News 上刊登的广告语说的那样,它在集成电子领域开创了一个新的纪元。

4004 直到 1981 年才停产,期间推出了 4040 作为它的加强版。这里有一段 4004 发布三十五周年纪念会的录像,其中有两位设计师的演讲,感兴趣的朋友可以去看看:Intel 4004 Microprocessor 35th Anniversary

Intel 8008

8008 与 4004 实际上是两个独立进行的项目,8008 项目开始的时间甚至可能早于 4004。而 8008 背后的故事,则是非常有趣:

Computer Terminal Corporation (CTC) 是当时刚成立不久的一家设计制造小型桌面终端的公司,1967 年他们推出了一款非常受欢迎的机型:Datapoint 3300。

这款机型虽然卖的不错,然而它的小毛病可是不少,比如发热问题就是其一。为了解决这台机型上存在的问题,CTC 开始考虑采用单片 CPU 的设计来改进内部电路,于是公司掌门人之一的 Roche 找到了罗伯特·诺伊斯,交流了这个想法。诺伊斯觉得这是个绝妙的点子,而且 Intel 有能力做,但是这样子干很蠢:“一台计算机只能卖一块主处理芯片,但是可以卖数百颗存储芯片”。另一个考量则是当时 Intel 的存量客户几乎都是买他们的存储芯片搭配自己研发的处理器,而一旦 Intel 开始卖自家的处理器了,那么它和客户间就可能会形成竞争关系,原本的客户可能会另寻供应商。

但最终诺伊斯还是在 1970 年初和 CTC 签下了价值 50000 美元的开发合同,不过呢,CTC 同时还找了德州仪器作为它们的备胎。

接下来的故事就众说纷纭了,英文维基上给出的这个缺少来源的说法是 TI(德州仪器)拿到了 Intel 的早期设计,并做出了样片,但是有许多 bug,被 CTC 给否了。Intel 自己的进度也不顺利,推迟了。结果呢,CTC 那边等不及了,还是用了老而成熟的方案在 1970 年 3 月末推出了改进型新品:Datapoint 2200。这新品都出了,那么自然也就不需要原来计划的配套处理器了,所以 CTC 叫停了代号为 1201 的芯片的研发。

半年过去了,似乎是注意到了 4004 的成功,有家计算器生产商向 Intel 表达了想把 1201 芯片用在他们家的科学计算器上的想法。正巧隔壁 4004 项目已经完成了,我们的老熟人 Federico Faggin 过来接手了 1201 项目,他们对原来的设计进行了一些小调整。最终在 1971 年的晚些时候,Intel 把完成版的 1201 送到了 CTC 手上。

结果 CTC 为了推出新的产品,已经不满足于 1201 所提供的性能,于是他们砍掉了这个项目,用 1201 身上的所有知识产权代替五万美金向 Intel 支付了费用。随后 Intel 将这款产品更名为 8008,并在 1972 年 4 月份将它以 $120 的价格放进了自家的产品目录里,他们原本担心的老客户流失问题也没有发生,反而延续了 4004 在商业上的成功。

与 4004 一样,8008 也是采用的 10 微米制程,集成了约 3500 个晶体管,早期版本主频为 500 kHz,后来升高至 800 kHz。但因为数据位宽为 8 bit,所以实际性能比 4004 还是要高不少。

8008 最大的意义还是在它的设计上,后来 1974 年 4 月份发布的 8080 延续了它的设计,而 x86 的开创者 8086 则是继承了 8080 的指令集,所以说 8008 是现在所有 x86 CPU 的老祖宗也不为过。

AMD 的逆向工程

1974 年,Intel 推出了 8080 微处理器。AMD 此时想进入微处理器的市场,于是他们搞到一块早期的 8080 芯片,对其展开了逆向工程:显微拍照,用照片捣鼓出了原理图和逻辑图,然后研发出了自己的第一款微处理器:Am9080。

Am9080 的制造成本只需要 50 美分,但却以 700 美元一片的价格卖给军用市场。结果不久之后 Intel 就与 AMD 签署了一份协议,AMD 成为了 8080 的授权第二供应商,这使得两家可以联合打入那些不接受单一供货源的市场,这份协议也给后来的故事埋下了伏笔。

结语

虽然 Intel 研发出的这两款单片型处理器的性能都挺一般的,但还是有不少业界人士和爱好者注意到了这种类型的处理器的远大前景——可以加速计算机的小型化,而事实上,在七十年代中期,已经有几家公司开始尝试用 Intel 的芯片设计制造小型的计算机了。

下一章,笔者将会把主视角从 CPU 转开,尝试讲述一下 IBM PC 兼容标准诞生的故事。

参考资料

  1. Intel at 50: Intel’s First Product – the 3101
  2. Intel at 50: Intel’s 1101
  3. MyNikko.com 微處理器博物館 - Intel 3101
  4. 纪念英特尔成立五十周年 篇一 阴差阳错
  5. The Story of the Intel® 4004
  6. MCS-8 - Intel - WikiChip

英文维基不作为参考资料列出。

PC 硬件史话——序章

前言

笔者因为从小被父亲的爱好所影响,所以自然而然地喜欢上了 PC 硬件方面的东西。好多年前《微型计算机》杂志上不断有各种 PC 的元件发展史的文章,当时非常爱读这类历史传奇一般的说明文,现在有能力去直接读英文资料了,也就产生了自己写的念头。

思前想后几个月,我决定还是以比较方便我自己阅读的资料为主,尽量客观的以时间轴的方式来书写这段跨度长达近乎六十年的传奇历史。

参考的资料主要是以英文维基为主,并辅以各种其他资料来保证准确性和真实性。

序章里面还要讲讲这一整段传奇故事的大背景。

背景

半导体器件的发展

十九世纪的电学研究开启了第二次工业革命,把人类带入了电气时代。随着材料科技的迅猛进步,半导体的性质逐渐被人们所掌握,这直接导致了在二十世纪初,各种新型电子元件被发明,比如现在大家非常熟悉的二极管、电子管等等。在早期,这些半导体元件的个头都比较大,而随后出现的晶体管,则开启了一场真正意义上的革命。

晶体管分为两种类型,一种是场效应管(Field-effect Transistor, FET),其概念由 J. E. Lilienfeld 于 1926 年提出,但限于当时的条件,没有能够生产出实际能够工作的器件。而现在普遍认为的第一支晶体管是由贝尔实验室在 1947 年发明的,参与研发的人员有 John Bardeen, Walter Brattain 和 William Shockley。 他们发明的晶体管是与 J. E. Lilienfeld 提出的场效应管不同的双极性结型晶体管(Bipolar Junction Transistor, BJT),也就是我们现在俗称的三极管。

由于种种原因,在发明了晶体管之后,Shockley(后文译作肖克利)离开了贝尔实验室。1956 年,他在山景城创办了以他自己名字命名的肖克利半导体实验室(Shockley Semiconductor Laboratory),实验室所在的那片地区后来发展演变成为了举世闻名的硅谷(Silicon Valley)。肖克利实验室招揽了许多有志向研究半导体的年轻科学家与工程师,其中最为著名的便是日后的「八叛逆」: 罗伯特·诺伊斯(Robert Noyce)、高登·摩尔(Gordon Moore)、朱利亚斯·布兰克(Julius Blank)、尤金·克莱尔(Eugene Kleiner)、金·赫尔尼(Jean Hoerni)、杰·拉斯特(Jay Last)、谢尔顿·罗伯茨(Sheldon Roberts)和维克多·格里尼克(Victor Grinich)。

八叛逆与仙童半导体

可能是因为肖克利在实验室管理以及个人性格上存在的一些缺陷,八叛逆向肖克利的上级 Arnold Beckman 要求替换掉他在实验室的位置,然而 Arnold Beckman 最终做出的一系列支持肖克利的决定使得八叛逆不得不考虑离开肖克利实验室另寻出路。

当时半导体器件的主要基底材料是锗,而八叛逆认为硅比锗拥有更好的商业前景,因为相对于储量不高、提炼繁杂的锗,硅可以从沙子中提炼出来,可以有效降低原料成本和生产时间。罗伯特·诺伊斯用慷慨激昂的演讲向仙童摄影器材公司的老板 Sherman Fairchild 展示了他们的愿景,并成功说服了他。随后在 1957 年,他们获得了仙童摄影器材公司的资助,创办了仙童半导体(Fairchild Semiconductor)。仙童半导体在 1958 年成功的以硅为基底开发出了一款在商业上非常成功的晶体管——2N697。随后在 1959 年,八叛逆之一的金·赫尔尼又研发出了新的平面工艺,相对于传统的台面工艺,新的平面工艺无论是在成本还是产品的稳定性上,都有着巨大的进步,这项技术至今仍在半导体制造中扮演着极其重要的角色。

继承了前人的理念之后,在 1958 年 9 月 12 日,德州仪器(Texas Instruments)的 Jack Kilby 成功的研发出了第一块能够工作的集成电路,随后他在 1959 年 2 月 6 日为这项发明申请了专利。半年之后,八叛逆之一的罗伯特·诺伊斯成功独立研发出了另一种不同的集成电路,与 Jack Kilby 不同的是,罗伯特·诺伊斯的集成电路是以硅为基底,并且更加实用。一年之后,诺伊斯又将平面工艺运用到集成电路的制造流程上,这也使得业界更为认可仙童半导体出产的集成电路。仙童半导体在创造了一系列对后世影响深远的研究发明之后俨然已经成为了整个半导体行业的领军者。

摩尔定律

1965 年 4 月 8 日,八叛逆之一的高登·摩尔在 Electronics 杂志上发表了名为 Cramming more components onto integrated circuits 的文章,文中,他基于对行业发展的长久观察和思考后做出了一项具有历史意义的预测:

The complexity for minimum component costs has increased at a rate of roughly a factor of two per year. Certainly over the short term this rate can be expected to continue, if not to increase. Over the longer term, the rate of increase is a bit more uncertain, although there is no reason to believe it will not remain nearly constant for at least 10 years.

这就是半导体行业中著名的”Moore’s Law”的前身,在 1975 年 IEEE(电气电子工程师学会)的一次会议上,摩尔修订了预测的增长率,原本两倍的增长率将在 1980 年之后减半。年内稍晚时候,加州理工学院的 Carver Mead 教授将摩尔的预测总结为”Moore’s Law”。

摩尔定律事实上只是一条经验定律,但是却延续至今仍旧没有失效,甚至一定程度上在很长一段时间内指引了半导体业界的发展。

分崩离析与传奇的开始

让我们把目光重新对准仙童半导体。在六十年代的前五年,仙童半导体的风光一时无两,员工数量从最早的12人发展到了12000人。然而王权没有永恒,这家公司并不会这么一帆风顺下去。1965 年开始,仙童半导体在公司内部管理上开始出现了一些问题,到了 1967 年 7 月,公司已经开始亏损并且领头羊的位置被德州仪器所夺取。1968 年 8 月,罗伯特·诺伊斯、高登·摩尔和 Andrew Grove 一起从仙童半导体离职,创办了 NM Electronics,一年之后,公司更名为 Intel。1969 年,仙童半导体的一群工程师决定离开公司创业,他们找到了 Jerry Sanders 一起合伙,5 月 1 日,Advanced Micro Devices 公司成立。

好了,演员已经全数登场,传奇即将上演。