缓存更新的套路

缓存更新的套路

cache看到好些人在写更新缓存数据代码时,先删除缓存,然后再更新数据库,而后续的操作会把数据再装载的缓存中。然而,这个是逻辑是错误的。试想,两个并发操作,一个是更新操作,另一个是查询操作,更新操作删除缓存后,查询操作没有命中缓存,先把老数据读出来后放到缓存中,然后更新操作更新了数据库。于是,在缓存中的数据还是老的数据,导致缓存中的数据是脏的,而且还一直这样脏下去了。

我不知道为什么这么多人用的都是这个逻辑,当我在微博上发了这个贴以后,我发现好些人给了好多非常复杂和诡异的方案,所以,我想写这篇文章说一下几个缓存更新的Design Pattern(让我们多一些套路吧)。

这里,我们先不讨论更新缓存和更新数据这两个事是一个事务的事,或是会有失败的可能,我们先假设更新数据库和更新缓存都可以成功的情况(我们先把成功的代码逻辑先写对)。

更新缓存的的Design Pattern有四种:Cache aside, Read through, Write through, Write behind caching,我们下面一一来看一下这四种Pattern。

Cache Aside Pattern

这是最常用最常用的pattern了。其具体逻辑如下:

  • 失效:应用程序先从cache取数据,没有得到,则从数据库中取数据,成功后,放到缓存中。
  • 命中:应用程序从cache中取数据,取到后返回。
  • 更新:先把数据存到数据库中,成功后,再让缓存失效。

Cache-Aside-Design-Pattern-Flow-Diagram

Updating-Data-using-the-Cache-Aside-Pattern-Flow-Diagram-1

注意,我们的更新是先更新数据库,成功后,让缓存失效。那么,这种方式是否可以没有文章前面提到过的那个问题呢?我们可以脑补一下。

一个是查询操作,一个是更新操作的并发,首先,没有了删除cache数据的操作了,而是先更新了数据库中的数据,此时,缓存依然有效,所以,并发的查询操作拿的是没有更新的数据,但是,更新操作马上让缓存的失效了,后续的查询操作再把数据从数据库中拉出来。而不会像文章开头的那个逻辑产生的问题,后续的查询操作一直都在取老的数据。

这是标准的design pattern,包括Facebook的论文《Scaling Memcache at Facebook》也使用了这个策略。为什么不是写完数据库后更新缓存?你可以看一下Quora上的这个问答《Why does Facebook use delete to remove the key-value pair in Memcached instead of updating the Memcached during write request to the backend?》,主要是怕两个并发的写操作导致脏数据。

那么,是不是Cache Aside这个就不会有并发问题了?不是的,比如,一个是读操作,但是没有命中缓存,然后就到数据库中取数据,此时来了一个写操作,写完数据库后,让缓存失效,然后,之前的那个读操作再把老的数据放进去,所以,会造成脏数据。

但,这个case理论上会出现,不过,实际上出现的概率可能非常低,因为这个条件需要发生在读缓存时缓存失效,而且并发着有一个写操作。而实际上数据库的写操作会比读操作慢得多,而且还要锁表,而读操作必需在写操作前进入数据库操作,而又要晚于写操作更新缓存,所有的这些条件都具备的概率基本并不大。

所以,这也就是Quora上的那个答案里说的,要么通过2PC或是Paxos协议保证一致性,要么就是拼命的降低并发时脏数据的概率,而Facebook使用了这个降低概率的玩法,因为2PC太慢,而Paxos太复杂。当然,最好还是为缓存设置上过期时间。

Read/Write Through Pattern

我们可以看到,在上面的Cache Aside套路中,我们的应用代码需要维护两个数据存储,一个是缓存(Cache),一个是数据库(Repository)。所以,应用程序比较啰嗦。而Read/Write Through套路是把更新数据库(Repository)的操作由缓存自己代理了,所以,对于应用层来说,就简单很多了。可以理解为,应用认为后端就是一个单一的存储,而存储自己维护自己的Cache。

Read Through

Read Through 套路就是在查询操作中更新缓存,也就是说,当缓存失效的时候(过期或LRU换出),Cache Aside是由调用方负责把数据加载入缓存,而Read Through则用缓存服务自己来加载,从而对应用方是透明的。

Write Through

Write Through 套路和Read Through相仿,不过是在更新数据时发生。当有数据更新的时候,如果没有命中缓存,直接更新数据库,然后返回。如果命中了缓存,则更新缓存,然后再由Cache自己更新数据库(这是一个同步操作)

下图自来Wikipedia的Cache词条。其中的Memory你可以理解为就是我们例子里的数据库。

Write-through_with_no-write-allocation

Write Behind Caching Pattern

Write Behind 又叫 Write Back。一些了解Linux操作系统内核的同学对write back应该非常熟悉,这不就是Linux文件系统的Page Cache的算法吗?是的,你看基础这玩意全都是相通的。所以,基础很重要,我已经不是一次说过基础很重要这事了。

Write Back套路,一句说就是,在更新数据的时候,只更新缓存,不更新数据库,而我们的缓存会异步地批量更新数据库。这个设计的好处就是让数据的I/O操作飞快无比(因为直接操作内存嘛 ),因为异步,write backg还可以合并对同一个数据的多次操作,所以性能的提高是相当可观的。

但是,其带来的问题是,数据不是强一致性的,而且可能会丢失(我们知道Unix/Linux非正常关机会导致数据丢失,就是因为这个事)。在软件设计上,我们基本上不可能做出一个没有缺陷的设计,就像算法设计中的时间换空间,空间换时间一个道理,有时候,强一致性和高性能,高可用和高性性是有冲突的。软件设计从来都是取舍Trade-Off。

另外,Write Back实现逻辑比较复杂,因为他需要track有哪数据是被更新了的,需要刷到持久层上。操作系统的write back会在仅当这个cache需要失效的时候,才会被真正持久起来,比如,内存不够了,或是进程退出了等情况,这又叫lazy write。

在wikipedia上有一张write back的流程图,基本逻辑如下:

Write-back_with_write-allocation

 

再多唠叨一些

1)上面讲的这些Design Pattern,其实并不是软件架构里的mysql数据库和memcache/redis的更新策略,这些东西都是计算机体系结构里的设计,比如CPU的缓存,硬盘文件系统中的缓存,硬盘上的缓存,数据库中的缓存。基本上来说,这些缓存更新的设计模式都是非常老古董的,而且历经长时间考验的策略,所以这也就是,工程学上所谓的Best Practice,遵从就好了。

2)有时候,我们觉得能做宏观的系统架构的人一定是很有经验的,其实,宏观系统架构中的很多设计都来源于这些微观的东西。比如,云计算中的很多虚拟化技术的原理,和传统的虚拟内存不是很像么?Unix下的那些I/O模型,也放大到了架构里的同步异步的模型,还有Unix发明的管道不就是数据流式计算架构吗?TCP的好些设计也用在不同系统间的通讯中,仔细看看这些微观层面,你会发现有很多设计都非常精妙……所以,请允许我在这里放句观点鲜明的话——如果你要做好架构,首先你得把计算机体系结构以及很多老古董的基础技术吃透了

3)在软件开发或设计中,我非常建议在之前先去参考一下已有的设计和思路,看看相应的guideline,best practice或design pattern,吃透了已有的这些东西,再决定是否要重新发明轮子。千万不要似是而非地,想当然的做软件设计。

4)上面,我们没有考虑缓存(Cache)和持久层(Repository)的整体事务的问题。比如,更新Cache成功,更新数据库失败了怎么吗?或是反过来。关于这个事,如果你需要强一致性,你需要使用“两阶段提交协议”——prepare, commit/rollback,比如Java 7 的XAResource,还有MySQL 5.7的 XA Transaction,有些cache也支持XA,比如EhCache。当然,XA这样的强一致性的玩法会导致性能下降,关于分布式的事务的相关话题,你可以看看《分布式系统的事务处理》一文。

(全文完)

 

 

(转载本站文章请注明作者和出处 酷 壳 – CoolShell ,请勿用于任何商业用途)

好烂啊有点差凑合看看还不错很精彩 (171 人打了分,平均分: 4.54 )
Loading...

缓存更新的套路》的相关评论

  1. Cache Aside 策略中你说的概率非常低其实是错误的,我最近就遇到过,并发情况下,写操作完成之后删除缓存在先,读操作在写事务提交之前但是放入缓存又在删除缓存之后导致缓存里面的脏数据,我的解决方法是更新缓存代替删除缓存,然后读操作的放入缓存用putIfAbsent来防止覆盖,这种方式只有在并发写的情况下可能有脏数据,但是并发写的概率更小,可以用锁的方式来控制,推荐使用乐观锁。

    1. 读操作开始在写操作提交之前,并且放入缓存又晚于写操作之后的删除缓存,确实概率比较低啊。

    2. 如果是用mysql的innodb引擎,你出现这种情况的原因是读操作没有加共享锁。应该在查询的时候使用lock in share mode。确保写操作的过程中读操作是被阻塞的。这样要读操作发生在写操作之前却又后于写操作让缓存失效的概率就很低了。

    3. 这种情况的核心是
      线程1:DB写操作和删除缓存在事务中,删除缓存后,事务还未提交。
      线程2:缓存已经删除,从DB读后,写入缓存。

      由于线程1的事务未提交,线程2读取并放入缓存的的还是旧数据,导致数据最终不一致。

      解决方案: 删除缓存,做2次删除:直接删除;注册事务回调,事务结束(提交或回滚)后再次删除。

  2. “如果你要做好架构,首先你得把计算机体系结构以及很多老古董的基础技术吃透了”

    让我想起了寒武纪的分形架构

  3. 我有个问题,博主
    两个并发操作,一个是更新操作,另一个是查询操作,更新操作删除缓存后,查询操作没有命中缓存,先把老数据读出来后放到缓存中,然后更新操作更新了数据库。于是,在缓存中的数据还是老的数据,导致缓存中的数据是脏的,而且还一直这样脏下去了。
    但是,先读老数据插入缓存了,然后更新数据后直接把新数据覆盖插入缓存了,这样只会脏一次啊

  4. 更新数据库前先锁记录,然后删除缓存,再更新数据库。这样能防止在写的时候并发读到老数据。相对cache aside有一个优点:不存在数据库已更新而缓存因网络等导致延迟删除,而使得延迟过程中使用老数据。

    1. 结合热点key的单线程更新机制,可以让数据库写之前也拿分布式锁,就可以解决上面并发写的情况,保证了一致性。
      这种方法下,对缓存的直接读没有排队。把缓存和数据库看做一个整体状态,对某个key的读写是排队的(读是指缓存读Miss从数据库查,写是指对数据库修改同时让缓存失效)。

  5. cache aside 就是维护一个缓存和数据库同步的逻辑,其他情况下 直接删除缓存即可,这样就没有破坏这个逻辑,而是让这个同步逻辑再来一次

  6. Cache Aside pattern中,更新完数据库,将缓存失效前,机器异常重启了,这种情况缓存也是脏数据了。

  7. 先删除缓存,然后再更新数据库”,说明了这是一个错误的逻辑。在举例的并发场景中,很难证明发生的概率会比较高,甚至和后面讲述cache aside的脏数据概率无法比较。写操作删除cache后,读操作需要查询缓存(没有命中),读取数据库,这些操作花费的时间A要比删除cache后到更新数据库前这段时间B要短,才会发生。然而B这段时间并没有操作什么,很难想象会比A的时间要长。希望有人可以解惑。

    1. 先删除缓存,在更新数据库。在并发场景下,写请求先把缓存失效,这个时候,读请求因为缓存失效,读取db数据,并更新至缓存中。读请求把旧数据更新至缓存中,并且写请求把最新数据更新至db中,造成脏数据。只要读请求的查db在写请求的写db之前,就会造成不一致,机率拍脑袋想也会大很多。(不要在意操作时间,只要注意先后顺序,只要读请求的查,在写请求的写之前就会触发脏数据的逻辑。数据库读写的发生顺序,如果读先发生了,写会被block住)

  8. 那么,是不是Cache Aside这个就不会有并发问题了?不是的,比如,一个是读操作,但是没有命中缓存,然后就到数据库中取数据,此时来了一个写操作,写完数据库后,让缓存失效,然后,之前的那个读操作再把老的数据放进去,所以,会造成脏数据。

    是否可以在读取缓存的时候,二次check下当前取值与当前数据库值一致【如果害怕太快,可以设定线程休眠一定时间】。

  9. 你好博主,请教个问题, 如果涉及到本地缓存,Redis,数据库如何保证近实时数据一致性

  10. Cache Aside Pattern 更新:先把数据存到数据库中,成功后,再让缓存失效。(如果缓存失效这个操作失败了怎么办)

  11. 耗子叔,拜读了你的文章然后又和一份技术文档(https://docs.oracle.com/cd/E13924_01/coh.340/e13819/readthrough.htm)对比了下,有些疑惑想与你探讨一下。
    在你的文章中认为”Read/WriteThrough把更新数据库(Repository)的操作由缓存自己代理了”,但是在另一篇文章中是Coherence来指代更新数据操作这一角色,我个人认为Coherence和缓存其实可以是不同的系统。你在文章中提到的”缓存”这个词范围是不是有点太模糊了。对于这个问题你是怎么看的?

  12. 大牛就是不一样,授人以鱼的同时授人以渔,不仅传“术”,而且传“道”,三言两语就能讲清问题本质,让人看了有醍醐灌顶的感觉,既让我认识到自己的不足,又扫清了我对技术的恐惧,比网络上那些贩卖焦虑的垃圾博客不知高到哪里去了。

  13. 皓叔,结论:先写数据库,再删除缓存。
    有人反驳是先写数据库成功,后删除缓存失败就会导致数据不一致。
    虽然说分布式系统任何操作有可能失败,但这种可能性是不是不大?(Redis故障转移)
    我个人比较赞同先写数据库,再删除缓存,因为感觉出现脏数据的概率低,且不会随着并发量增加而概率增加。
    因此兜底方案是缓存最好设置过期时间,但这又会影响命中率。

  14. 第一段写的好像不通顺或者不对. 不是更新操作把缓存弄脏了, 而应该是读操作把缓存弄脏了吧?

  15. Cache Aside Pattern模式下,数据存到数据库中,成功后,为什么不再更新缓存内容,而是让缓存内容失效呢?

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注