• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

青训营学习记录: Redis 大厂程序员是怎么用的 | 青训营

武飞扬头像
zenor0
帮助1

Redis 是什么

学新通

Redis(Remote Dictionary Server)是一个开源的内存数据存储系统,也被称为缓存数据库,它支持多种数据结构,如字符串、哈希表、列表、集合、有序集合等。Redis的设计目标是提供高性能、高可用性、可扩展性和灵活性,以满足各种应用场景下的需求。

为什么需要 Redis

学新通

  1. 数据从单表演进出了分库分表: 当数据量逐渐增大,单个数据库表可能无法满足性能需求。在应对这种情况时,一种常见的解决方案是将数据分散到多个数据库中,即分库,同时将每个数据库中的表进行拆分,即分表。然而,这样的分布式数据库架构可能会增加复杂性,而 Redis 可以作为一个中心化的缓存数据库,减轻后端数据库的压力,提供更快的读取速度。
  2. MySQL从单机演进出了集群: 随着业务的发展,单台 MySQL 数据库服务器可能无法满足高并发、高可用性和横向扩展的需求。因此,许多组织会将多个 MySQL 实例组成集群,以提高性能和可靠性。在这种集群环境下,Redis 可以用作缓存层,减轻数据库服务器的负载,加速读取操作,从而提高整体性能。
  3. 数据量增长: 随着用户量和数据量的增加,数据库的读写压力会显著增加。Redis 作为一个内存数据库,具有快速的读写速度,特别适合应对高并发的数据访问需求,可以有效减轻后端数据库的压力,提高系统的响应速度。
  4. 读写数据压力的不断增加: 在某些应用场景中,读操作的频率远远高于写操作,例如社交媒体的时间线、热门商品列表等。Redis 的缓存机制可以将热门数据存储在内存中,供频繁的读取操作使用,减少对后端数据库的直接查询次数,从而提高系统的读取性能。

学新通

Redis的基本工作原理

学新通

学新通

  1. 内存存储: Redis主要将数据存储在内存中,因此读写速度非常快。
  2. 单线程模型: Redis采用单线程模型处理客户端请求,这是因为大部分操作都是在内存中进行,避免了多线程切换的开销。
  3. 异步操作: 对于需要进行磁盘持久化的操作,Redis使用了异步操作来减少对性能的影响。
  4. 持久化: Redis支持两种持久化方式,分别是快照(Snapshotting)和AOF(Append-Only File)日志。
  5. 复制: Redis可以通过主从复制机制实现数据的复制,以提高可用性和负载均衡。
  6. 集群: Redis可以通过集群方式实现分布式存储和高可用性。

增量数据保存到AOF文件中

全量数据保存到RDB文件中

Redis 应用案例

通过案例,了解Redis的实际应用场景

Redis常用数据结构

连续签到

学新通

通过设置 Redis 键值的自动过期时间, 来实现每日连续签到的检测.

Key: cc_uid_1165894833417101
value: 252
expireAt:后天的0点

String 的数据结构

学新通

消息通知

学新通 用list作为消息队列

例如当文章更新时,将更新后的文章推送到ES,用户就能搜索到最新的文章数据

List 数据结构 Quicklist

Quicklist由一个双向链表和listpack实现

学新通

Listpack数据结构

学新通

计数

一个用户有多项计数需求,可通过hash结构存储

user_count_1556564194374926    
got_digg_count 10693 文章被点赞数
got_view_count 2238438 文章被阅读数
followee_count 176 关注数
follower_count 9895 关注者
follow_collect_set_count 0 收藏集
subscribe_tag_count 95 关注标签数

Hash数据结构dict

学新通

rehash

rehash操作是将ht[0]中的数据,全部迁移到ht[1]中。数据量小的场景下,直接将数据从ht[0]拷贝到ht[1]速度是较快的。数据量大的场景,例如存有上百万的KV时,迁移过程将会明显阻塞用户请求。

渐进式rehash

为避免出现这种情况,使用了rehash方案。基本原理就是,每次用户访问时都会迁移少量数据。将整个迁移过程,平摊到所有的访问用不请求过程中。

排行榜

学新通 积分变化时,排名要实时变更

zset数据结构 zskiplist

学新通

学新通

限流

学新通

要求1秒内放行的请求为N,超过N则禁止访问

Key:  comment_freq_limit_1671356046
对这个Key调用incr,超过限制N则禁止访问
1671356046 是当前时间戳

分布式锁

学新通

并发场景,要求一次只能有一个协程执行。执行完成后,其它等待中的协程才能执行。

使用 Redis 的 setnx 实现.

但是!!

Ex02 只是体验SetNX的特性,不是高可用的分布式锁实现

该实现存在的问题:

(1) 业务超时解锁,导致并发问题。业务执行时间超过锁超时时间

(2) redis主备切换临界点问题。主备切换后,A持有的锁还未同步到新的主节点时,B可在新主节点获取锁,导致并发问题。

(3) redis集群脑裂,导致出现多个主节点

Redis 使用注意事项

大 Key, 热 Key

大 Key 的定义

数据类型 大Key标准
String类型 value的字节数大于10KB即为大key
Hash/Set/Zset/list等复杂数据结构类型 元素个数大于5000个或总value字节数大于10MB即为大key

消除大Key的方法

  1. 拆分

将大key拆分为小key。例如一个String拆分成多个String

  Key Value
拆分前 article:70011 abcdefghigklmnopqrst
拆分后 article:70011 [3][70011]abcdefg
article:70011_2 [70011]higklmn  
article:70011_3 [70011]opqrst  
  1. 压缩

将value压缩后写入redis,读取时解压后再使用。压缩算法可以是gzip、snappy、lz4等。通常情况下,

一个压缩算法压缩率高、则解压耗时就长。需要对实际数据进行测试后,选择一个合适的算法。

如果存储的是JSON字符串,可以考虑使用MessagePack进行序列化

热Key的定义

用户访问一个Key的QPS特别高,导致Server实例出现CPU负载突增或者不均的情况。

热key没有明确的标准,QPS 超过500就有可能被识别为热Key

学新通

解决热 Key 的方法

  1. 设置Localcache

在访问Redis前,在业务服务侧设置Localcache,降低访问Redis的QPS。LocalCache中缓存过期或未命中,

则从Redis中将数据更新到LocalCache。Java的Guava、Golang的Bigcache就是这类LocalCache

学新通

  1. 拆分

将key:value这一个热Key复制写入多份,例如key1:value,key2:value,访问的时候访问多个key,但value是同一个,

以此将qps分散到不同实例上,降低负载。代价是,更新时需要更新多个key,存在数据短暂不一致的风险

学新通

使用Redis代理的热Key承载能力

字节跳动的Redis访问代理就具备热Key承载能力。本质上是结合了“热Key发现”、“LocalCache”两个功能

学新通

慢查询场景

容易导致慢查询的操作

(1) 批量操作一次性传入过多的key/value,如mset/hmset/sadd/zadd等O(n)操作

建议单批次不要超过100,超过100之后性能下降明显。

(2) zset大部分命令都是O(log(n)),当大小超过5k以上时,简单的zadd/zrem也可能导致慢查询

(3) 操作的单个value过大,超过10KB。也即,避免使用大Key

(4) 对大key的delete/expire操作也可能导致慢查询,Redis4.0之前不支持异步删除unlink,大key删除会阻塞Redis

缓存穿透, 缓存雪崩

缓存穿透 热点数据查询绕过缓存,直接查询数据库

缓存雪崩 大量缓存同时过期

缓存穿透的危害

(1) 查询一个一定不存在的数据

通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击,

那么容易导致db响应慢甚至宕机

(2) 缓存过期时

在高并发场景下,一个热key如果过期,会有大量请求同时击穿至db,容易影响db性能和稳定。

同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢,甚至出现db无法响应新的查询

如何减少缓存穿透

(1) 缓存空值

如一个不存在的userID。这个id在缓存和数据库中都不存在。则可以缓存一个空值,下次再查缓存直接反空值。

(2) 布隆过滤器

通过bloom filter算法来存储合法Key,得益于该算法超高的压缩率,只需占用极小的空间就能存储大量key值

如何避免缓存雪崩

(1) 缓存空值

将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间,

可以设置为 10分1秒过期,10分23秒过期,10分8秒过期。单位秒部分就是随机时间,这样过期时间就分散了。

对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些。

(2) 使用缓存集群,避免单机宕机造成的缓存雪崩。

参考资料

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgbaifa
系列文章
更多 icon
同类精品
更多 icon
继续加载