生产环境缓存失效解决方案

Redis的持久化机制

Redis的数据都存放在内存中,如果没有配置持久化,redis重启后数据就全丢失了,于是需要开启redis的持久化功能,将数据保存到磁盘上,当redis重启后,可以从磁盘中恢复数据。

持久化方式

  • RDB 持久化
    RDB 持久化方式能够在指定的时间间隔对你的数据进行快照存储
  • AOF(append only file)持久化
    AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据

RDB 方式

  • 客户端直接通过命令BGSAVE或者SAVE来创建一个内存快照
  1. BGSAVE 调用fork来创建一个子进程,子进程负责将快照写入磁盘,而父进程仍然继续处理命令。
  2. SAVE 执行SAVE命令过程中,不再响应其他命令。
  • 在redis.conf中调整save配置选项,当在规定的时间内,Redis发生了写操作的个数满足条件会触发发生

    BGSAVE命令

    1
    2
    3
    4
    5
    6
    # 900秒之内至少一次写操作
    save 900 1
    # 300秒之内至少发生10次写操作
    save 300 10
    # 60秒之内发生至少10000次
    save 60 10000

RDB 优点和缺点

优点 缺点
对性能影响最小 同步时丢失数据
RDB文件进行数据恢复比使用AOF要快很多 如果数据集非常大且CPU不够强(比如单核CPU),Redis在fork子进程时可能会消耗相对较长的时间,影响Redis对外提供服务的能力。

AOF 持久化方式

  • 记录每次服务受到的写

    BGREWRITEAOF命令可以触发日志重写或自动重写,废除对同一个Key历史的无用命令,重建当前数据集所需的最短命令序列。

    意外中断,如果最后的命令只写了一部分,恢复时则会跳过它,执行后面完整的命令。

  • 开启AOF持久化

    1
    appendonly yes
  • AOF策略调整

    1
    2
    3
    4
    5
    6
    7
    8
    #每次有数据修改发生时都会写入AOF文件,非常安全非常慢
    appendfsync always

    #每秒钟同步一次,该策略为AOF的缺省策略,够快可能会丢失1秒的数据
    appendfsync everysec

    #不主动fsync,由操作系统决定,更快,更不安全的方法
    appendfsync no

Redis丢失数据的可能性

持久化丢失的可能

RDB方式

快照产生的策略,天生就不保证数据安全

AOF持久化策略

默认每秒同步一次磁盘,可能会有1秒的数据丢失

每次修改都同步,数据安全可保证,但Redis高性能的特性全无

主从复制丢失的可能

异步复制,存在一定的时间窗口数据丢失

网络、服务器问题,存在一定数据的丢失

总结:持久化和主从都可能出现数据丢失

淘汰策略导致数据失效

内存分配

不同数据类型的大小限制

  • Strings类型:一个String类型的value最大可以存储512M。

  • Lists类型:list的元素个数最多为2^32-1个,也就是4294967295个。

  • Sets类型:元素个数最多为2^32-1个,也就是4294967295个。

  • Hashes类型:键值对个数最多为2^32-1个,也就是4294967295个

1
2
3
# 最大内存控制
maxmemory 最大内存阈值
maxmemory-policy 到达阈值的执行策略

内存压缩

1
2
3
4
5
6
7
8
9
10
11
12
13
14
#配置字段最多512个
hash-max-zipmap-entries 512
#配置value最大为64字节
hash-max-zipmap-value 64
#配置元素个数最多512个
list-max-ziplist-entries 512
#配置value最大为64字节
list-max-ziplist-value 64
#配置元素个数最多512个
set-max-intset-entries 512
#配置元素个数最多128个
zset-max-ziplist-entries 128
#配置value最大为64字节
zset-max-ziplist-value 64

大小超出压缩范围,溢出后Redis将自动将其转换为正常大小

过期数据的处理策略

  • 主动处理( redis 主动触发检测key是否过期)每秒执行10次。过程如下:
    1. 从具有相关过期的密钥集中测试20个随机密钥
    2. 删除找到的所有密钥已过期
    3. 如果超过25%的密钥已过期,请从步骤1重新开始
  • 被动处理:
    1. 每次访问key的时候,发现超时后被动过期,清理掉

数据恢复阶段过期数据的处理策略

  • RDB方式

    过期的key不会被持久化到文件中。

    载入时过期的key,会通过redis的主动和被动方式清理掉。

  • AOF方式

    当 redis 使用 AOF 方式持久化时,每次遇到过期的 key redis 会追加一条 DEL 命令 到 AOF 文件,也就是说只要我们顺序载入执行 AOF 命令文件就会删除过期的键。

注意: 过期数据的计算和计算机本身的时间是有直接联系的!

LRU算法

LRU(Least recently used,最近最少使用):根据数据的历史访问记录来进行淘汰数据

  • 核心思想:如果数据最近被访问过,那么将来被访问的几率也更高。

  • 注意:Redis的LRU算法并非完整的实现,完整的LRU实现是因为这需要太多的内存。

  • 方法:通过对少量keys进行取样(50%),然后回收其中一个最好的key。

  • 配置方式: maxmemory-samples 5

LFU算法

LFU(Least Frequently Used)根据数据的历史访问频率来淘汰数据

  • 核心思想:如果数据过去被访问多次,那么将来被访问的频率也更高。

  • Redis实现的是近似的实现,每次对key进行访问时,用基于概率的对数计数器来记录访问次数,同时这个计数器会随着时间推移而减小。

  • Morris counter算法依据:

    https://en.wikipedia.org/wiki/Approximate_counting_algorithm

  • 启用LFU算法后,可以使用热点数据分析功能。( redis-cli –hotkeys )

Redis内存回收策略

配置文件中设置:maxmemory-policy noeviction

动态调整:config set maxmemory-policy noeviction

回收策略 说明
noeviction 客户端尝试执行会让更多内存被使用的命令直接报错
allkeys-lru 在所有key里执行LRU算法
volatile-lru 在所有已经过期的key里执行LRU算法
volatile-lfu 使用过期集在密钥中使用近似LFU进行驱逐
allkeys-lfu 使用近似LFU逐出任何键
allkeys-random 在所有key里随机回收
volatile-random 在已经过期的key里随机回收
volatile-ttl 回收已经过期的key,并且优先回收存活时间(TTL)较短的键

什么样的数据适合缓存

三个维度评判数据是否合适缓存

维度 适合缓存 不适合缓存
访问频率 访问频率高 访问频率低
读写比 读多写少 写多读少
一致性要求 一致性要求低 一致性要求高

缓存穿透、缓存雪崩的解决方案

缓存雪崩原因-缓存穿透

缓存失效的两种情况:

  1. 高峰期大面积缓存Key失效。(所有请求全部访问后端数据库)

  2. 局部高峰期,热点缓存Key失效。(导致海量的请求直击数据库)

    eg: 1. 突发重要热点事件 2. 春节红包 3. 促销活动 。。。

缓存雪崩风险

缓存雪崩:因为缓存服务挂掉或者热点缓存失效,从而导致海量请求去查询数据库,

导致数据库连接不够用或者数据库处理不过来,从而导致整个系统不可用。

数据库服务器压力大,依赖数据库的其他系统也会面临崩溃风险

雪崩的解决方案-互斥锁

雪崩的解决方案-缓存降级

拿到锁的线程负责更新缓存,其他请求读取备份缓存数据或者执行降级策略;

备份缓存通常是不设置过期时间的,异步更新的缓存

  • 优点:

    1. 灵活多变,根据业务需要进行调整;

    2. 使用方便

  • 缺点:

    1. 降级策略的选择对开发人员的要求高,需要能掌控业务;

    2. 为了保证备份缓存的数据一致性,增加了维护的复杂度;


生产环境缓存失效解决方案
https://www.weypage.com/2020/02/15/redis/生产环境缓存失效解决方案/
作者
weylan
发布于
2020年2月15日
许可协议