7个示例科普CPU Cache
(感谢网友 @我的上铺叫路遥 翻译投稿)
CPU cache一直是理解计算机体系架构的重要知识点,也是并发编程设计中的技术难点,而且相关参考资料如同过江之鲫,浩瀚繁星,阅之如临深渊,味同嚼蜡,三言两语难以入门。正好网上有人推荐了微软大牛Igor Ostrovsky一篇博文《漫游处理器缓存效应》,文章不仅仅用7个最简单的源码示例就将CPU cache的原理娓娓道来,还附加图表量化分析做数学上的佐证,个人感觉这种案例教学的切入方式绝对是俺的菜,故而忍不住贸然译之,以飨列位看官。
原文地址:Gallery of Processor Cache Effects
大多数读者都知道cache是一种快速小型的内存,用以存储最近访问内存位置。这种描述合理而准确,但是更多地了解一些处理器缓存工作中的“烦人”细节对于理解程序运行性能有很大帮助。
在这篇博客中,我将运用代码示例来详解cache工作的方方面面,以及对现实世界中程序运行产生的影响。
下面的例子都是用C#写的,但语言的选择同程序运行状况以及得出的结论几乎没什么影响。
目录
示例1:内存访问和运行
你认为相较于循环1,循环2会运行多快?
int[] arr = new int[64 * 1024 * 1024]; // Loop 1 for (int i = 0; i < arr.Length; i++) arr[i] *= 3; // Loop 2 for (int i = 0; i < arr.Length; i += 16) arr[i] *= 3;
第一个循环将数组的每个值乘3,第二个循环将每16个值乘3,第二个循环只做了第一个约6%的工作,但在现代机器上,两者几乎运行相同时间:在我机器上分别是80毫秒和78毫秒。
两个循环花费相同时间的原因跟内存有关。循环执行时间长短由数组的内存访问次数决定的,而非整型数的乘法运算次数。经过下面对第二个示例的解释,你会发现硬件对这两个循环的主存访问次数是相同的。
示例2:缓存行的影响
让我们进一步探索这个例子。我们将尝试不同的循环步长,而不仅仅是1和16。
for (int i = 0; i < arr.Length; i += K) arr[i] *= 3;
下图为该循环在不同步长(K)下的运行时间:
注意当步长在1到16范围内,循环运行时间几乎不变。但从16开始,每次步长加倍,运行时间减半。
背后的原因是今天的CPU不再是按字节访问内存,而是以64字节为单位的块(chunk)拿取,称为一个缓存行(cache line)。当你读一个特定的内存地址,整个缓存行将从主存换入缓存,并且访问同一个缓存行内的其它值的开销是很小的。
由于16个整型数占用64字节(一个缓存行),for循环步长在1到16之间必定接触到相同数目的缓存行:即数组中所有的缓存行。当步长为32,我们只有大约每两个缓存行接触一次,当步长为64,只有每四个接触一次。
理解缓存行对某些类型的程序优化而言可能很重要。比如,数据字节对齐可能决定一次操作接触1个还是2个缓存行。那上面的例子来说,很显然操作不对齐的数据将损失一半性能。
示例3:L1和L2缓存大小
今天的计算机具有两级或三级缓存,通常叫做L1、L2以及可能的L3(译者注:如果你不明白什么叫二级缓存,可以参考这篇精悍的博文lol)。如果你想知道不同缓存的大小,你可以使用系统内部工具CoreInfo,或者Windows API调用GetLogicalProcessorInfo。两者都将告诉你缓存行以及缓存本身的大小。
在我的机器上,CoreInfo现实我有一个32KB的L1数据缓存,一个32KB的L1指令缓存,还有一个4MB大小L2数据缓存。L1缓存是处理器独享的,L2缓存是成对处理器共享的。
Logical Processor to Cache Map:
*— Data Cache 0, Level 1, 32 KB, Assoc 8, LineSize 64
*— Instruction Cache 0, Level 1, 32 KB, Assoc 8, LineSize 64
-*– Data Cache 1, Level 1, 32 KB, Assoc 8, LineSize 64
-*– Instruction Cache 1, Level 1, 32 KB, Assoc 8, LineSize 64
**– Unified Cache 0, Level 2, 4 MB, Assoc 16, LineSize 64
–*- Data Cache 2, Level 1, 32 KB, Assoc 8, LineSize 64
–*- Instruction Cache 2, Level 1, 32 KB, Assoc 8, LineSize 64
—* Data Cache 3, Level 1, 32 KB, Assoc 8, LineSize 64
—* Instruction Cache 3, Level 1, 32 KB, Assoc 8, LineSize 64
–** Unified Cache 1, Level 2, 4 MB, Assoc 16, LineSize 64
(译者注:作者平台是四核机,所以L1编号为0~3,数据/指令各一个,L2只有数据缓存,两个处理器共享一个,编号0~1。关联性字段在后面例子说明。)
让我们通过一个实验来验证这些数字。遍历一个整型数组,每16个值自增1——一种节约地方式改变每个缓存行。当遍历到最后一个值,就重头开始。我们将使用不同的数组大小,可以看到当数组溢出一级缓存大小,程序运行的性能将急剧滑落。
int steps = 64 * 1024 * 1024; // Arbitrary number of steps int lengthMod = arr.Length - 1; for (int i = 0; i < steps; i++) { arr[(i * 16) & lengthMod]++; // (x & lengthMod) is equal to (x % arr.Length) }
下图是运行时间图表:
你可以看到在32KB和4MB之后性能明显滑落——正好是我机器上L1和L2缓存大小。
示例4:指令级别并发
现在让我们看一看不同的东西。下面两个循环中你以为哪个较快?
int steps = 256 * 1024 * 1024; int[] a = new int[2]; // Loop 1 for (int i=0; i<steps; i++) { a[0]++; a[0]++; } // Loop 2 for (int i=0; i<steps; i++) { a[0]++; a[1]++; }
结果是第二个循环约比第一个快一倍,至少在我测试的机器上。为什么呢?这跟两个循环体内的操作指令依赖性有关。
第一个循环体内,操作做是相互依赖的(译者注:下一次依赖于前一次):
但第二个例子中,依赖性就不同了:
现代处理器中对不同部分指令拥有一点并发性(译者注:跟流水线有关,比如Pentium处理器就有U/V两条流水线,后面说明)。这使得CPU在同一时刻访问L1两处内存位置,或者执行两次简单算术操作。在第一个循环中,处理器无法发掘这种指令级别的并发性,但第二个循环中就可以。
[原文更新]:许多人在reddit上询问有关编译器优化的问题,像{ a[0]++; a[0]++; }能否优化为{ a[0]+=2; }。实际上,C#编译器和CLR JIT没有做优化——在数组访问方面。我用release模式编译了所有测试(使用优化选项),但我查询了JIT汇编语言证实优化并未影响结果。
示例5:缓存关联性
缓存设计的一个关键决定是确保每个主存块(chunk)能够存储在任何一个缓存槽里,或者只是其中一些(译者注:此处一个槽位就是一个缓存行)。
有三种方式将缓存槽映射到主存块中:
- 直接映射(Direct mapped cache)
每个内存块只能映射到一个特定的缓存槽。一个简单的方案是通过块索引chunk_index映射到对应的槽位(chunk_index % cache_slots)。被映射到同一内存槽上的两个内存块是不能同时换入缓存的。(译者注:chunk_index可以通过物理地址/缓存行字节计算得到) - N路组关联(N-way set associative cache)
每个内存块能够被映射到N路特定缓存槽中的任意一路。比如一个16路缓存,每个内存块能够被映射到16路不同的缓存槽。一般地,具有一定相同低bit位地址的内存块将共享16路缓存槽。(译者注:相同低位地址表明相距一定单元大小的连续内存) - 完全关联(Fully associative cache)
每个内存块能够被映射到任意一个缓存槽。操作效果上相当于一个散列表。
直接映射缓存会引发冲突——当多个值竞争同一个缓存槽,它们将相互驱逐对方,导致命中率暴跌。另一方面,完全关联缓存过于复杂,并且硬件实现上昂贵。N路组关联是处理器缓存的典型方案,它在电路实现简化和高命中率之间取得了良好的折中。
(此图由译者给出,直接映射和完全关联可以看做N路组关联的两个极端,从图中可知当N=1时,即直接映射;当N取最大值时,即完全关联。读者可以自行想象直接映射图例,具体表述见参考资料。)
举个例子,4MB大小的L2缓存在我机器上是16路关联。所有64字节内存块将分割为不同组,映射到同一组的内存块将竞争L2缓存里的16路槽位。
L2缓存有65,536个缓存行(译者注:4MB/64),每个组需要16路缓存行,我们将获得4096个集。这样一来,块属于哪个组取决于块索引的低12位bit(2^12=4096)。因此缓存行对应的物理地址凡是以262,144字节(4096*64)的倍数区分的,将竞争同一个缓存槽。我机器上最多维持16个这样的缓存槽。(译者注:请结合上图中的2路关联延伸理解,一个块索引对应64字节,chunk0对应组0中的任意一路槽位,chunk1对应组1中的任意一路槽位,以此类推chunk4095对应组4095中的任意一路槽位,chunk0和chunk4096地址的低12bit是相同的,所以chunk4096、chunk8192将同chunk0竞争组0中的槽位,它们之间的地址相差262,144字节的倍数,而最多可以进行16次竞争,否则就要驱逐一个chunk)。
为了使得缓存关联效果更加明了,我需要重复地访问同一组中的16个以上的元素,通过如下方法证明:
public static long UpdateEveryKthByte(byte[] arr, int K) { Stopwatch sw = Stopwatch.StartNew(); const int rep = 1024*1024; // Number of iterations – arbitrary int p = 0; for (int i = 0; i < rep; i++) { arr[p]++; p += K; if (p >= arr.Length) p = 0; } sw.Stop(); return sw.ElapsedMilliseconds; }
该方法每次在数组中迭代K个值,当到达末尾时从头开始。循环在运行足够长(2^20次)之后停止。
我使用不同的数组大小(每次增加1MB)和不同的步长传入UpdateEveryKthByte()。以下是绘制的图表,蓝色代表运行较长时间,白色代表较短时间:
蓝色区域(较长时间)表明当我们重复数组迭代时,更新的值无法同时放在缓存中。浅蓝色区域对应80毫秒,白色区域对应10毫秒。
让我们来解释一下图表中蓝色部分:
1.为何有垂直线?垂直线表明步长值过多接触到同一组中内存位置(大于16次)。在这些次数里,我的机器无法同时将接触过的值放到16路关联缓存中。
一些糟糕的步长值为2的幂:256和512。举个例子,考虑512步长遍历8MB数组,存在32个元素以相距262,144字节空间分布,所有32个元素都会在循环遍历中更新到,因为512能够整除262,144(译者注:此处一个步长代表一个字节)。
由于32大于16,这32个元素将一直竞争缓存里的16路槽位。
(译者注:为何512步长的垂直线比256步长颜色更深?在同样足够多的步数下,512比256访问到存在竞争的块索引次数多一倍。比如跨越262,144字节边界512需要512步,而256需要1024步。那么当步数为2^20时,512访问了2048次存在竞争的块而256只有1024次。最差情况下步长为262,144的倍数,因为每次循环都会引发一个缓存行驱逐。)
有些不是2的幂的步长运行时间长仅仅是运气不好,最终访问到的是同一组中不成比例的许多元素,这些步长值同样显示为蓝线。
2.为何垂直线在4MB数组长度的地方停止?因为对于小于等于4MB的数组,16路关联缓存相当于完全关联缓存。
一个16路关联缓存最多能够维护16个以262,144字节分隔的缓存行,4MB内组17或更多的缓存行都没有对齐在262,144字节边界上,因为16*262,144=4,194,304。
3.为何左上角出现蓝色三角?在三角区域内,我们无法在缓存中同时存放所有必要的数据,不是出于关联性,而仅仅是因为L2缓存大小所限。
举个例子,考虑步长128遍历16MB数组,数组中每128字节更新一次,这意味着我们一次接触两个64字节内存块。为了存储16MB数组中每两个缓存行,我们需要8MB大小缓存。但我的机器中只有4MB缓存(译者注:这意味着必然存在冲突从而延时)。
即使我机器中4MB缓存是全关联,仍无法同时存放8MB数据。
4.为何三角最左边部分是褪色的?注意左边0~64字节部分——正好一个缓存行!就像上面示例1和2所说,额外访问相同缓存行的数据几乎没有开销。比如说,步长为16字节,它需要4步到达下一个缓存行,也就是说4次内存访问只有1次开销。
在相同循环次数下的所有测试用例中,采取省力步长的运行时间来得短。
将图表延伸后的模型:
缓存关联性理解起来有趣而且确能被证实,但对于本文探讨的其它问题比起来,它肯定不会是你编程时所首先需要考虑的问题。
示例6:缓存行的伪共享(false-sharing)
在多核机器上,缓存遇到了另一个问题——一致性。不同的处理器拥有完全或部分分离的缓存。在我的机器上,L1缓存是分离的(这很普遍),而我有两对处理器,每一对共享一个L2缓存。这随着具体情况而不同,如果一个现代多核机器上拥有多级缓存,那么快速小型的缓存将被处理器独占。
当一个处理器改变了属于它自己缓存中的一个值,其它处理器就再也无法使用它自己原来的值,因为其对应的内存位置将被刷新(invalidate)到所有缓存。而且由于缓存操作是以缓存行而不是字节为粒度,所有缓存中整个缓存行将被刷新!
为证明这个问题,考虑如下例子:
private static int[] s_counter = new int[1024]; private void UpdateCounter(int position) { for (int j = 0; j < 100000000; j++) { s_counter[position] = s_counter[position] + 3; } }
在我的四核机上,如果我通过四个线程传入参数0,1,2,3并调用UpdateCounter,所有线程将花费4.3秒。
另一方面,如果我传入16,32,48,64,整个操作进花费0.28秒!
为何会这样?第一个例子中的四个值很可能在同一个缓存行里,每次一个处理器增加计数,这四个计数所在的缓存行将被刷新,而其它处理器在下一次访问它们各自的计数(译者注:注意数组是private属性,每个线程独占)将失去命中(miss)一个缓存。这种多线程行为有效地禁止了缓存功能,削弱了程序性能。
示例7:硬件复杂性
即使你懂得了缓存的工作基础,有时候硬件行为仍会使你惊讶。不用处理器在工作时有不同的优化、探试和微妙的细节。
有些处理器上,L1缓存能够并发处理两路访问,如果访问是来自不同的存储体,而对同一存储体的访问只能串行处理。而且处理器聪明的优化策略也会使你感到惊讶,比如在伪共享的例子中,以前在一些没有微调的机器上运行表现并不良好,但我家里的机器能够对最简单的例子进行优化来减少缓存刷新。
下面是一个“硬件怪事”的奇怪例子:
private static int A, B, C, D, E, F, G; private static void Weirdness() { for (int i = 0; i < 200000000; i++) { // do something... } }
当我在循环体内进行三种不同操作,我得到如下运行时间:
操作 时间
A++; B++; C++; D++; 719 ms
A++; C++; E++; G++; 448 ms
A++; C++; 518 ms
增加A,B,C,D字段比增加A,C,E,G字段花费更长时间,更奇怪的是,增加A,C两个字段比增加A,C,E,G执行更久!
我无法肯定这些数字背后的原因,但我怀疑这跟存储体有关,如果有人能够解释这些数字,我将洗耳恭听。
这个例子的教训是,你很难完全预测硬件的行为。你可以预测很多事情,但最终,衡量及验证你的假设非常重要。
关于第7个例子的一个回帖
Goz:我询问Intel的工程师最后的例子,得到以下答复:
“很显然这涉及到执行单元里指令是怎样终止的,机器处理存储-命中-加载的速度,以及如何快速且优雅地处理试探性执行的循环展开(比如是否由于内部冲突而多次循环)。但这意味着你需要非常细致的流水线跟踪器和模拟器才能弄明白。在纸上预测流水线里的乱序指令是无比困难的工作,就算是设计芯片的人也一样。对于门外汉来说,没门,抱歉!”
P.S.个人感悟——局部性原理和流水线并发
程序的运行存在时间和空间上的局部性,前者是指只要内存中的值被换入缓存,今后一段时间内会被多次引用,后者是指该内存附近的值也被换入缓存。如果在编程中特别注意运用局部性原理,就会获得性能上的回报。
比如C语言中应该尽量减少静态变量的引用,这是因为静态变量存储在全局数据段,在一个被反复调用的函数体内,引用该变量需要对缓存多次换入换出,而如果是分配在堆栈上的局部变量,函数每次调用CPU只要从缓存中就能找到它了,因为堆栈的重复利用率高。
再比如循环体内的代码要尽量精简,因为代码是放在指令缓存里的,而指令缓存都是一级缓存,只有几K字节大小,如果对某段代码需要多次读取,而这段代码又跨越一个L1缓存大小,那么缓存优势将荡然无存。
关于CPU的流水线(pipeline)并发性简单说说,Intel Pentium处理器有两条流水线U和V,每条流水线可各自独立地读写缓存,所以可以在一个时钟周期内同时执行两条指令。但这两条流水线不是对等的,U流水线可以处理所有指令集,V流水线只能处理简单指令。
CPU指令通常被分为四类,第一类是常用的简单指令,像mov, nop, push, pop, add, sub, and, or, xor, inc, dec, cmp, lea,可以在任意一条流水线执行,只要相互之间不存在依赖性,完全可以做到指令并发。
第二类指令需要同别的流水线配合,像一些进位和移位操作,这类指令如果在U流水线中,那么别的指令可以在V流水线并发运行,如果在V流水线中,那么U流水线是暂停的。
第三类指令是一些跳转指令,如cmp,call以及条件分支,它们同第二类相反,当工作在V流水线时才能通U流水线协作,否则只能独占CPU。
第四类指令是其它复杂的指令,一般不常用,因为它们都只能独占CPU。
如果是汇编级别编程,要达到指令级别并发,必须要注重指令之间的配对。尽量使用第一类指令,避免第四类,还要在顺序上减少上下文依赖。
参考资料
上海交通大学师生制作的一个关于cache映射功能、命中率计算的教学演示程序,模拟了不同关联模式下cache的映射和命中几率,形象直观。
网易数据库大牛@何_登成自制PPT《CPU Cache and Memory Ordering》,信息量超大!
南京大学计算机教学公开PPT,温馨提示,地址域名里面改变字段”lecture”后面的数字编号可切换课程;-)
(全文完)
(转载本站文章请注明作者和出处 酷 壳 – CoolShell ,请勿用于任何商业用途)
《7个示例科普CPU Cache》的相关评论
这段java代码在我的机器上进行单元测试,无论开与不开server模式。第一个循环的速度都要超出第二个循环大约十倍,这是为什么?
附上测试代码
wonderful
比如C语言中应该尽量减少静态变量的引用,这是因为静态变量存储在全局数据段,在一个被反复调用的函数体内,引用该变量需要对缓存多次换入换出,而如果是分配在堆栈上的局部变量,函数每次调用CPU只要从缓存中就能找到它了,因为堆栈的重复利用率高。
这一点是有问题的,除非L1, L2 cache都是直接映射的cache,不然的话这一点是不成立的。
不管如何关联映射,静态变量和局部变量是不可能在同一个缓存行里。@abadcafe
@Leo
cache是有多个cacheline的,每个cacheline又有自己的way,静态变量在自己的cacheline的way里,跟局部变量互不干扰。cache的替换是以cacheline为单位的。
@HarryZD
java的话,猜测跟编译优化以及运行的JVM都有关吧。。。
同样的code我用g++试了一下(Ubuntu 12.04 g++ 4.6.3)
优化用 -O0:
Loop 1 1050000 ticks
Loop 2 610000 ticks
大约就是两倍左右的效率,跟示例一样
-O1:
Loop 1 80000 ticks
Loop 2 80000 ticks
优化成一样了
-O2:
Loop 1 0 ticks
Loop 2 0 ticks
循环直接优化掉了(没有使用的变量)
你的概念有误,一个cache有多个set,每个set有自己的way(也就是cache line),但每个line对应的物理地址应该是连续的,这就是空间局部性,所以静态变量和局部变量一般不会在同一个line里。比如一个函数体只要局部变量不超过64字节,那么函数执行几乎没开销,如果访问静态变量,那么至少要访问两个line,甚至有可能是不同的set。@abadcafe
@Leo
既然你知道这是两个不同的cacheline,那还看不出局部变量跟全局变量互不冲突?这并不会造成cacheline替换。实际上,就算是同一个cacheline,因为way的存在,仍然很大概率上是没有冲突的。你把你文章中提到的直接映射/组相联这两个概念搞清楚了,就明白了。
另外,函数执行的开销主要是取决于你自己函数体内有多少指令,与函数栈大小没有直接关系。
如果你是指的函数调用的开销,那函数调用与cacheline更没有直接关系,函数调用的开销主要是入栈出栈的开销,这个地方硬要牵扯cacheline的话,说明你需要补习一下相关知识。
我只能说请你把这篇文章以及相关参考资料再读一遍,你的理解有误,特别是概念方面。@abadcafe
@Leo
Cache是RAM,访问哪个位置(或者说哪个行)的效率是一样的
影响效率的是Cache未命中,如果静态变量的那一行没有被替换掉的话不会影响效率吧
我指的是访问一个line比访问两个line效率高啊,不是命不命中的问题。所以说有人概念没搞清楚嘛@D6C92FE5
@Leo
为什么访问一个line比访问两个line效率高,Cache是RAM,存取时间和位置无关吧
另外云风的《感悟》一书里面也写了,堆栈变量能被函数反复使用,其数据就存放在一级缓存中,而零散的静态变量就缺少这个优势,被换入换出的几率更大。@D6C92FE5 @abadcafe
跟访问次数有关啊,第一第二的例子不是说得明明白白?@D6C92FE5
时间局部性应该这样理解,如果一个变量被引用多次,那么这个变量会被放入缓存。对于局部变量来说,它可能被放入一级缓存,而静态变量可能被放入二级缓存。因为前者在特定时间内被同一段代码引用次数多,而后者分布零散,可能在好几个地方被引用,只能放在二级缓存,换入换出几率也大了。
@Leo
第一第二的例子是说,访问arr[0],需要把arr[0..15]载入Cache,而Cache-主存的存取时间比CPU-Cache的存取时间长很多,所以只访问arr[0]和把arr[0..15]都访问一次效率几乎相同吧(1000+1≈1000+16)
@Leo
CPU-主存的存取貌似必须经过Cache吧
好文啊,非常喜欢这种举例说明的文章。
如果数组大小是int a[16*1024],如果步长1~16,相当于访问了全部1024个cache lines,如果步长为32,则访问了512个cache lines,时间快一倍,步长64以此类推。@D6C92FE5
局部性原理就是说,数据分布要压缩聚合,尽量保持在一个地方反复调用,静态数据访问性能低。
@Leo
以32为步长,只需要载入512个cache lines,所以速度快一倍,不是因为只访问了512个cache lines,访问之前数据不在Cache里
假设Cache-主存的存取时间是CPU-Cache的存取时间的1000倍
访问a[0],未命中,载入a[0..15]到Cache的某一行再访问,时间1000+1=1001
访问a[1],命中,直接从Cache取值,时间1
访问a[16],未命中,载入a[16..31]到Cache的某一行再访问,时间1000+1=1001
访问a[32],未命中,载入a[32..47]到Cache的某一行再访问,时间1000+1=1001
如果步长为1
总共进行16*1024次访存
其中1024次(a[0],a[16],a[32]…)未命中
总时间16*1024*1+1024*1000=1040384
如果步长为16
总共进行1024次访存
其中1024次未命中
总时间1024*1+1024*1000=1025024
如果步长为32
总共进行512次访存
其中512次未命中
总时间512*1+512*1000=512512
就像文中说的,循环执行时间长短由数组的内存访问次数(Cache未命中次数)决定的
步长32比步长16快一倍不是因为前者访问的行数比后者少一半,而是需要从内存载入的次数少了一半
如果先执行一次 for (int i = 0; i < L; i++) arr[i] *= 3; (L不太大)
那么再执行 for (int i = 0; i < L; i+=k) arr[i] *= 3; 的效率应该近似相同,无论k为几
@Leo
请问访问一个cacheline的效率高于访问两个cacheline这个说法的出处?
云风的书讲的是一般的情况,如果你这个静态变量所处的函数是会被频繁调用的,那该静态变量仍然位于cache中。cacheline的淘汰算法是最近是否使用,而不是其tag与其他cacheline的tag的差值是否较大。
问题就在于静态变量可以被*多个地方调用*的,只要在作用域内,而且内存分布是零散的,同局部变量是分离的,你又不确定被哪个函数调到,所以存在换入换出的风险。@abadcafe
你说得有道理,可能最初未加载,文中没提到。@D6C92FE5
@Leo
时间局部性应该这样理解,如果一个变量被引用多次,那么这个变量会被放入缓存。对于局部变量来说,它可能被放入一级缓存,而静态变量可能被放入二级缓存。因为前者在特定时间内被同一段代码引用次数多,而后者分布零散,可能在好几个地方被引用,只能放在二级缓存,换入换出几率也大了。
局部性原理就是说,数据分布要压缩聚合,尽量保持在一个地方反复调用,静态数据访问性能低。
———————————————————————
你自己这局部性原理的说法都没统一起来呢。
“因为前者在特定时间内被同一段代码引用次数多,而后者分布零散,可能在好几个地方被引用,只能放在二级缓存,换入换出几率也大了。”
首先,为什么“只能”放在L2?谁规定的?
第二,“可能在好几个地方被引用”,这难道不是证明其被引用次数多?这难道是不能被cache的理由?正因为它被访问的次数多,才更要cache住它。
再强调一遍,cacheline替换算法是根据其访问时间或访问频度来的,而不是根据cacheline的tag值来的。
@Leo
在cache这个层面,CPU知道函数是什么东西?CPU为什么要管cacheline被哪个函数访问?CPU只要管这个cacheline是否被频繁访问,就可以了,他并不需要管是不是同一个函数在频繁访问这个cacheline。
很好,又长见识了。瞬间回忆起了大学里面的一门课程《计算机组成原理》,当时只知道好像是睡过去的。
@abadcafe
请问访问一个cacheline的效率高于访问两个cacheline这个说法的出处?
=============================================
1 < 2 蚊子小也是肉的意思?
其实语言影响很大的,上面这些例子不考虑语言的优化应该是对的,但是如果你用java来运行,结果可能会跟你的结论相背,因为java会对循环里面的操作做些优化,比如a[0]++;a[0]++;可能被优化成一条指令a[0]+=2;运行起来比a[0]++;a[1]++快一倍以上。(mac java1.7)
首先文中的例子不少与具体的硬件(如例一)和编译器(或者优化级别)有关(如例四),所以文中例子的结论就不具有普遍意义的说服力。但是如果此文仅仅是作为CPU的一些概念科普,还算是比较好的一篇文章。
静态变量的确有优缺点,但博主关于尽量少使用静态变量的原因的观点是有问题的,访问缓存,也即访问CacheLine并不会去访问内存,这也是缓存存在的意义,访问一个cacheline的效率高于访问两个cacheline的效率,这也是不成立的,如果我访问两个cacheline都能得到我想要的数据,即数据存在在两个cacheline中,而访问一个cacheline时数据并没有在cacheline中,这时就要从内存载入,访问两个cacheline访问内存的次数为0,访问一个cacheline访问内存的次数为1,效率不是很明显了吗?关于静态变量的使用也是得根据实际情况而定的
还是谢谢博主的分享,翻查了一些相关资料,确实学到很多东西
谢博主,大二刚学完计算机组成原理,再看这篇文章,对cache的理解加深了。
@abadcafe
这个在普遍情况下是没错的,我做了简单的测试,和浩哥的结论相同,调用静态数组的话,缓存会频繁的换入换出,耗时会是 堆空间 的3倍
博主再更深入的结合内存栅(memory fence)讲解一下就好了,這個是對工作有實際指導意義的,放在L1的變量在各CPU間的同步是coder要注意的問題。
樓上各位高人對靜態變量的cache的討論似乎沒有結論啊,這也是對實際工作有影響的觀點啊,看得本人心慌慌。。
個人覺得靜態變量和局部變量一樣,被cache的原因都是因爲訪問頻繁,至於cache時是L1還是L2,應該也是越頻繁的就越要放到L1。所謂全局数据段是現代操作系統使用虛地址後編譯器搞出來的東西吧,CPU的設計應該和這些東西沒什麼太大關係的,純汇编代碼感覺是沒有嚴格意義上的全局數據段的。
总觉得上边几位讨论的时候没有吧prefetch考虑进去呢,空间相关性说的就是预取吧。
还有就是这些个讨论都是在单线程里边进行的?现在的cache性能优化基本都是在多核多线程的情况下吧,涉及缓存一致性和内存栅栏的操作(不过这static应该没有涉及内存栅栏吧),这样才会出现访问独享数据的效率高于共享cacheline。
楼上几位老是讨论什么一个两个cacheline和静态变量什么的,如果在单线程环境下有意义么?我觉得真正出问题应该是在多线程环境下吧。
@seasonsolt 大哥能把具体的测试方法简单提一下么
@Leo
哈哈,正解
把上下文看看就清楚了吧,你要是单单纠结着一句话,当然有问题了。
中国的计算机人员讨论问题喜欢用“我觉得,我以为”,外国的用“例子,图表,数值”。建议中国的多用公式,数据,图表证明,如果你觉得你是对的话。毕竟计算机是科学,但在中国文化下,中国是个例外。
@zhodj
“我觉得,我以为”本身是没什么问题的, 还显得谦虚.
重点是其观点有没有事实依据,是否合逻辑.
我也一样,第一个循环只要25ms,而第二个要400+ms
@HarryZD
啊。。看到作者引用了我们王老师的ppt。。。只是想说一下链接可能开了学就要失效了
@小白
只是感觉中国计算机的码农太多,工程师少,科学家更少。中国的所谓“技术牛人”充其量是工具,语言,算法的熟练“使用者”,却难见一个“发明者”,对计算机科学发展更无多少贡献。有感而发而已。
试了一下。跟文章的结论不一样。a的跳数是1,b的跳数试了2,4,16。最后所耗时间也是对应的这个比例。
比如4的时候,两个值为 1519 407
在mac,centos虚拟机,centos物理机。
int a[100*100*64]={1};
int len=sizeof(a)/sizeof(a[0]);
int i=0;
int j=0;
struct timeval start,mid, end;
gettimeofday( &start, NULL );
for(;i<len;i+=1){ //a
a[i]*=3;
}
gettimeofday(&mid,NULL);
printf("%d\n",mid.tv_usec-start.tv_usec);
for(;j<len;j+=4){ //b
a[i]*=3;
}
gettimeofday(&end,NULL);
printf("%d\n",end.tv_usec-mid.tv_usec);
return 0;
我也做了类似实验,结果数据与你差不多,请问博主在搬运翻译原博的时候有没有重现过呢?感觉结果有点站不住脚。。。
我这里也是@HarryZD