7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

发布时间:2022-07-01 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

大家好,我是一名Java后端程序员,每天开心的撸CRUD;

你猜这次我又要写个啥没有卵用的知识点呢?

不好意思,问的稍微有点早了,啥提示都没给,咋猜呢,对吧?

今天早上老板把我叫到办公室,对我说,“公司最近接了个电商小程序单子,你和王二狗,张SD参与下需求分析和设计,然后下个月开发,3个月内完成测试,上线交付”。

WC,WC,WC

。。。。。。。

“老板,老板,我没学过微信小程序,我是个Java后端程序员,你再招一个前端微信小程序开发吧”,我很低声的跟老板说。

老板很大声的吼道,“不会的东西,不会自己学吗?招新不要钱吗?你知道今年行情有多差吗,接单子容易吗?不想干就G?”

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

我平很想发火怼老板,但是突然想到;

上有农村年迈父母,下有襁褓小儿,媳妇还辞职在出租房带孩子。

我就低声回复F1a;“噢,噢,好的,好的,我学。”

屌丝人生就是这样,总得向生活低头。

努力学习吧!!!等我技牛逼了,把老板炒了。

下面直接上超重量级干货:

回归正题:怎么样更好的优化redis性能?

一、优化的一些建议

1、尽量使用短的key

当然在精简的同时,不要为了key的“见名知意”。对于value有些也可精简,比如性别使用0、1。

2、避免使用keys

keys , 这个命令是阻塞的,即操作执行期间,其它任何命令在你的实例中都无法执行。当redis中key数据量小时到无所谓,数据量大就很糟糕了。所以我们应该避免去使用这个命令。可以去使用SCAN,来代替。

3、在存到Redis之前先把你的数据压缩下

redis为每种数据类型都提供了两种内部编码方式,在不同的情况下redis会自动调整合适的编码方式。

4、设置key有效期

我们应该尽可能的利用key有效期。比如一些临时数据(短信校验码),过了有效期Redis就会自动为你清除!

5、选择回收策略(maXMemory-policy)

当Redis的实例空间被填满了之后,将会尝试回收一部分key。根据你的使用方式,强烈建议使用 volatile-lru(默认) 策略——前提是你对key已经设置了超时。但如果你运行的是一些类似于 cache 的东西,并且没有对 key 设置超时机制,可以考虑使用 allkeys-lru 回收机制,具体讲解查看 。maxmemory-samples 3 是说每次进行淘汰的时候 会随机抽取3个key 从里面淘汰最不经常使用的(默认选项)。

maxmemory-policy 六种方式 :
volatile-lru:只对设置了过期时间的key进行LRU(默认值)
allkeys-lru : 是从所有key里 删除 不经常使用的key
volatile-random:随机删除即将过期key
allkeys-random:随机删除
volatile-TTL : 删除即将过期的
noeviction : 永不过期,返回错误 

6、使用bIT位级别操作和byte字节级别操作来减少不必要的内存使用

bit位级别操作:GETRANGE, SETRANGE, GETBIT and SETBIT
byte字节级别操作:GETRANGE and SETRANGE 

7、尽可能地使用hashes哈希存储

8、当业务场景不需要数据持久化时,关闭所有的持久化方式可以获得最佳的性能

数据持久化时需要在持久化和延迟/性能之间做相应的权衡.

9、想要一次添加多条数据的时候可以使用管道

10、限制redis的内存大小

(64位系统不限制内存,32位系统默认最多使用3GB内存)

数据量不可预估,并且内存也有限的话,尽量限制下redis使用的内存大小,这样可以避免redis使用swap分区或者出现OOM错误。(使用swap分区,性能较低,如果限制了内存,当到达指定内存之后就不能添加数据了,否则会报OOM错误。可以设置maxmemory-policy,内存不足时删除数据)

11、SLOWLOG [get/reset/len]

slowlog-log-slower-than 它决定要对执行时间大于多少微秒(microsecond,1秒 = 1,000,000 微秒)的命令进行记录。
slowlog-max-len 它决定 slowlog 最多能保存多少条日志,当发现redis性能下降的时候可以查看下是哪些命令导致的。 

二、管道测试

redis的管道功能在命令行中没有,但是redis是支持管道的,在java的客户端(jedis)中是可以使用的:

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

示例代码:

//注:具体耗时,和自身脑有关(博主是在虚拟机中运行的数据)
/**
 * 不使用管道初始化1W条数据
 * 耗时:3079毫秒
 * @throws Exception
 */
@test
public void NOTUsePiPEline() throws Exception {
    Jedis jedis = JedisUtil.getJedis();
    long start_time = System.currentTimeMillis();
    for (int i = 0; i < 10000; i++) {
        jedis.set("aa_"+i, i+"");
    }
    System.out.PRintln(System.currentTimeMillis()-start_time);
}
 
/**
 * 使用管道初始化1W条数据
 * 耗时:255毫秒
 * @throws Exception
 */
@Test
public void usePipeline() throws Exception {
    Jedis jedis = JedisUtil.getJedis();
 
    long start_time = System.currentTimeMillis();
    Pipeline pipelined = jedis.pipelined();
    for (int i = 0; i < 10000; i++) {
        pipelined.set("cc_"+i, i+"");
    }
    pipelined.sync();//执行管道中的命令
    System.out.println(System.currentTimeMillis()-start_time);
} 

hash的应用

示例:我们要存储一个用户信息对象数据,包含以下信息: key为用户ID,value为用户对象(姓名,年龄,生日等)如果用普通的key/value结构来存储,主要有以下2种存储方式:

1、将用户ID作为查找key,把其他信息封装成一个对象以序列化的方式存储 缺点:增加了序列化/反序列化的开销,引入复杂适应系统(Complex adaptive system)修改其中一项信息时,需要把整个对象取回,并且修改操作需要对并发进行保护。

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

2、用户信息对象有多少成员就存成多少个key-value对 虽然省去了序列化开销和并发问题,但是用户ID为重复存储。

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

Redis提供的Hash很好的解决了这个问题,提供了直接存取这个Map成员的接口。Key仍然是用户ID, value是一个Map,这个Map的key是成员的属性名,value是属性值。( 内部实现:Redis Hashd的Value内部有2种不同实现,Hash的成员比较少时Redis为了节省内存会采用类似一维数组的方式来紧凑存储,而不会采用真正的HashMap结构,对应的value redisObject的encoding为zipmap,当成员数量增大时会自动转成真正的HashMap,此时encoding为ht )。

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

Instagram内存优化

Instagram可能大家都已熟悉,当前火热的拍照App,月活跃用户3亿。四年前Instagram所存图片3亿多时需要解决一个问题:想知道每一张照片的作者是谁(通过图片ID反查用户UID),并且要求查询速度要相当的块,如果把它放到内存中使用String结构做key-value:

HSET ";mediabucket:1155" "1155315" "939"
HGET "mediabucket:1155" "1155315"
"939" 

测试:1百万数据会用掉70MB内存,3亿张照片就会用掉21GB的内存。当时(四年前)最好是一台EC2的 high-memory 机型就能存储(17GB或者34GB的,68GB的太浪费了),想把它放到16G机型中还是不行的。

Instagram的开发者向Redis的开发者之一Pieter Noordhuis询问优化方案,得到的回复是使用Hash结构。具体的做法就是将数据分段,每一段使用一个Hash结构存储. 由于Hash结构会在单个Hash元素在不足一定数量时进行压缩存储,所以可以大量节约内存。这一点在上面的String结构里是不存在的。而这个一定数量是由配置文件中的hash-zipmap-max-entries参数来控制的。经过实验,将hash-zipmap-max-entries设置为1000时,性能比较好,超过1000后HSET命令就会导致CPU消耗变得非常大。

HSET "mediabucket:1155" "1155315" "939"
HGET "mediabucket:1155" "1155315"
"939" 

测试:1百万消耗16MB的内存。总内存使用也降到了5GB。当然我们还可以优化,去掉mediabucket:key长度减少了12个字节。

HSET "1155" "315" "939"
HGET "1155" "315"
"939" 

三、优化案例

1、修改linux中TCP监听的最大容纳数量

/proc/sys/net/core/somaxconn is set to the lower value of 128. 

在高并发环境下你需要一个高backlog值来避免慢客户端连接问题。注意Linux内核默默地将这个值减小到/proc/sys/net/core/somaxconn的值,所以需要确认增大somaxconn和tcp_max_syn_backlog两个值来达到想要的效果。 echo 511 > /proc/sys/net/core/somaxconn 注意:这个参数并不是限制redis的最大链接数。如果想限制redis的最大连接数需要修改maxclients,默认最大连接数为10000

2、修改linux内核内存分配策略

错误日志:WARNING overcommit_memory is set to 0! Background save may fail under low memory condition.
To fix this issue add 'vm.overcommit_memory = 1' to /etc/sysctl.conf and then reboot or
run the command 'sysctl vm.overcommit_memory=1 

redis在备份数据的时候,会fork出一个子进程,理论上child进程所占用的内存和parent是一样的,比如parent占用的内存为8G,这个时候也要同样分配8G的内存给child,如果内存无法负担,往往会造成redis服务器的down机或者IO负载过高,效率下降。所以内存分配策略应该设置为 1(表示内核允许分配所有的物理内存,而不管当前的内存状态如何)。 内存分配策略有三种 可选值:0、1、2。 0, 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。 1, 不管需要多少内存,都允许申请。 2, 只允许分配物理内存和交换内存的大小(交换内存一般是物理内存的一)。

3、关闭Transparent Huge Pages(THP)

THP会造成内存锁影响redis性能,建议关闭

Transparent HugePages :用来提高内存管理的性能
Transparent Huge Pages在32位的RHEL 6中是不支持的
执行命令 echo never > /sys/kernel/mm/transparent_hugepage/enabled
把这条命令添加到这个文件中/etc/rc.local 

我看过不少的关于redis的学籍,以及一些学习笔记,虽然都还不错,但是能够从浅深入到码的却很少,前几天看到的一份来阿里大牛自产的“Redis深度笔记”,起码是我目前看到过的最完善,最有深度的一份笔记了。有需要可以点击文末名片免费领取,无套路。

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

笔记大概分为以下几个部分:

  • 开篇基础部分
  • 九大应用部分
  • 八大原理部分
  • 三大集群部分
  • 九大拓展部分
  • 七大源码部分

一、开篇基础部分

  1. 开篇:授人以鱼不若授人以鱼-Redis可以用来做什么
  2. 基础:万丈高楼平地起-Redis基础数据结构

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

二、九大应用部分

  1. 千帆竞发-分布式锁
  2. 缓兵之计-延时队列
  3. 节衣缩食-位图
  4. 四两拨千斤-HyperLogLog
  5. 层峦叠嶂-布隆过滤器
  6. 断尾求生-简单限流
  7. 一毛不拔-漏斗限流
  8. 近水楼台-GeoHash
  9. 大海捞针-Scan

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

三、八大原理部分

  1. 鞭辟入里-线程IO模型
  2. 交头接耳-通信协议
  3. 未雨绸缪-持久化
  4. 雷厉风行-管道
  5. 同舟共济-事务
  6. 小道消息-PubSub
  7. 开源节流-小对象压缩
  8. 有备无患-主从同步

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

四、三大集群部分

  1. 李代桃僵-Sentinel
  2. 分而治之-Codis
  3. 众志成城-Cluster

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

五、九大拓展部分

  1. 耳听八方-Stream
  2. 无所不知-info指令
  3. 拾遗漏补-再谈分布式锁
  4. 朝生暮死-过期策略
  5. 优胜劣汰-LRU
  6. 平波缓进-懒惰删除
  7. 妙手仁心-优雅地使用Jedis
  8. 居安思危-保护Redis
  9. 隔墙有耳- Redis安全通信

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

六、七大源码部分

  1. 极度深寒-探索(字串符)内部结构
  2. 极度深寒-探索(字典)内部
  3. 极度深寒-探索(压缩列表)内部
  4. 极度深寒-探索(快速列表)内部
  5. 极度深寒-探索(跳跃列表)内部结构
  6. 极度深寒-探索(紧凑列表)结构
  7. 极度深寒-探索(基数树)结构

7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?

Redis 涉及的知识点是非常繁多的,虽然作者已经疯狂扩充了不少进阶和压箱底的内容,但本小册依然无法顾及到 Redis 的方方面面,对于那些渴望进一步拓展知识的同学,点击下方名片扫码免费领取,无套路。

脚本宝典总结

以上是脚本宝典为你收集整理的7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?全部内容,希望文章能够帮你解决7年Java老后端不能说的秘密:怎么样更好的优化Redis性能?所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。