0%

全表扫描对内存的影响

全表扫描对server层的影响

对一个200G的InnoDB表db1.t,执行一个全表扫描,把扫描结果保存在客户端:

1
mysql -h$host -P$port -u$user -p$pwd -e "select * from db1.t" > $target_file

InnoDB的数据是保存在主键索引上的,全表扫描实际上是直接扫描表t的主键索引。查询语句中没有其他的判断条件,查到的每一行都可以直接放到结果集里,然后返回给客户端。但服务端并不需要保存一个完整的结果集。

服务端取数据和发数据的流程:

  1. 获取一行,写到net_buffer中,这块内存的大小是有参数net_buffer_length定义的,默认是16K。
  2. 重复获取行,直到net_buffer写满,调用网络接口发出去。
  3. 如果发送成功,就清空net_buffer,然后继续取下一行,并写入net_buffer。
  4. 如果发送函数返回EAGAIN或者WSAEWOULDBLOCK,就表示本地网络栈(socket send buffer)写满了,进入等待(对应客户端Socket receive buffer)。直到网络栈重新可写,再继续发送。
  • 一个查询在发送过程中,占用的MySQL内部的内存最大就是net_buffer_length那么大。
  • socket send buffer默认定义在/proc/sys/net/core/wmem_default。如果socket send buffer被写满,就会暂停读数据的流程。

Sending to client

MySQL是“边读边发的”。如果客户端接收的慢,会导致MySQL服务端由于结果发不出去,这个事务的执行时间变长。

如果让客户端不去读socket receive buffer中的内容,在服务端show processlist看到State的值一致处于”Sending to client“,表示服务端的网络栈写满了。

如果客户端使用-quick参数,会使用mysql_user_result方法。这个方法是读一行处理一行。假设有一个业务的逻辑比较复杂,每读一行数据以后要处理的逻辑如果很慢,就会导致客户端要过很久才会去取下一行数据,可能会出现上边服务端发送阻塞的情况。

对于正常的线上业务来说,如果一个查询的返回结果不会很多的话,建议使用,mysql_store_result这个接口,直接把查询结果保存到本地内存。

如果在自己负责维护的MySQL里看到很多个线程都处于“Sending to client”这个状态,就意味着需要业务开发优化查询结果,并评估这么多的返回结果是否合理。如果要快速减少处于这个状态的线程,将net_buffer_length参数设置为一个更大的值是一个可选的方案。

Sending data

一个查询语句的状态变化:

  • MySQL查询语句进入执行阶段后,首先把状态设置成“Sending data”;
  • 然后,发送执行结果的列相关的信息(meta data)给客户端;
  • 再继续执行语句的流程;
  • 执行完成后,把状态设置成空字符串。

Sending data并不一定是指“正在发送数据”,而可能是出于执行器过程中的任意阶段。例如锁等待的场景。

sessionA sessionB
begin;
select * from t where id=1 for update;
select * from t lock in share mode;
(blocked)

sessionB是在等锁,但是show processlist命令中State列显示为Sending data。

仅当一个线程处于“等待客户端接收结果”的状态,才会显示”Sending to client”;而如果显示成“Sending data”,它的意思只是“正在执行”。

查询结果是分段发送给客户端的,扫描全表,查询返回大量的数据,不会在server端保存完整的结果集,即使客户端读结果不及时,会堵住MySQL的查询过程,但并不会把内存打爆。

全表扫描对InnoDB的影响

内存的数据页是在Buffer Pool(BP)中管理的,在WAL中Buffer Pool起到了加速更新的作用(随机写磁盘->顺序写磁盘)。实际上,Buffer Pool还有一个更重要的作用,就是加速查询。

当事务提交的时候,磁盘上的数据页是旧的,此时马上有一个查询来读这个数据页,不需要把redo log应用到数据页。这时内存数据页的结果时最新的,直接读内存页就可以了。这时候查询根本不需要读磁盘,直接从内存拿结果,速度是很快的。所以Buffer Pool还有加速查询的作用。

Buffer Pool对查询的加速效果,依赖于一个重要指标:内存命中率

可以在show engine innodb status结果中,查看一个系统当前的BP命中率。一般情况下,一个稳定服务的线上系统,要保证响应时间符合要求的话,内存命中率要在99%以上。

Buffer pool hit rate 990/1000

InnoDB Buffer Pool的大小是由参数innodb_buffer_pool_size确定的,一般建议设置成可用物理内存的60%~80%。

LRU淘汰算法

innodb_buffer_pool_size小于磁盘的数据量是很常见的。如果一个Buffer Pool满了,而又要从磁盘读入一个数据页,那肯定是要淘汰一个旧数据页的(刷脏页),大查询也不会导致内存暴涨。

InnoDB内存管理用的是最近最少使用(Least Recently Used,LRU)算法,核心是淘汰最久未使用的数据。

InnoDB管理Buffer Pool的LRU算法,是用链表来实现的。
数据结构与算法-链表
数据结构与算法-散列表应用

改进LRU算法

按照LRU算法,要扫描一个200G的表,而这个表是一个历史数据表,平时没有业务访问它。按照普通LRU算法扫描的话,就会把当前的Buffer Pool里的数据全部淘汰掉,存入扫描过程中访问到的数据页的内容。Buffer Pool里面主要放的是这个历史数据表的数据。

对于一个正在做业务服务的库,Buffer Pool的内存命中率急剧下降,磁盘压力增加,SQL语句响应变慢。

InnoDB对LRU算法做了改进:

InnoDB实现上,按照5:3的比例把整个LRU链表分成了young区域和old区域。图中LRU_old指向的就是old区域的第一个位置,是整个链表的5/8处。靠近链表头部的5/8是young区域,靠近链表尾部的3/8是old区域。

改进后的LRU算法执行流程:

  1. 状态1,要访问数据页P3,由于P3在young区域,因此和优化前的LRU算法一样,将其移到链表头部,变成状态2。
  2. 之后要访问一个新的不存在于当前链表的数据页,这时候依然是淘汰掉数据页Pm,但新插入的数据页Px,是放在LRU_old处。
  3. 处于old区域的数据页,每次被访问的时候都要做下面的判断:
    • 若这个数据页在LRU链表中存在的时间超过了1秒,就把它移动到链表头部;
    • 如果这个数据页在LRU链表中存在的时间短于1秒,位置保持不变。1秒这个时间,是由参数innodb_old_blocks_times控制的,其默认值是1000,单位毫秒。

这个策略,就是为了处理类似全表扫描的操作量身定制的。

  1. 扫描过程中,需要新插入的数据页,都被放到old区域;
  2. 一个数据页里面有多条记录,这个数据页会被多次访问到,但由于是顺序扫描,这个数据页第一次被访问和最后一次被访问的时间间隔不会超过1秒,因此还是会被保留在old区域;
  3. 再继续扫描后续的数据,之前的这个数据页之后也不会再被访问到,于是始终没有机会移动到链表头部(young区域),很快就会被淘汰出去。

这个策略最大的收益,就是在扫描大表的过程中,即使是冷数据的全表扫描,虽然也用到了Buffer Pool,但是对young区域完全没有影响,从而保证了Buffer Pool响应正常业务的查询命中率。

全表扫描比较耗费IO资源,业务高峰期不能直接在线上主库执行全表扫描。