想象一下,你就是线上系统的“交通调度总指挥”,服务器的磁盘是所有数据进出的“核心枢纽港口”。当这个“港口”突然拥堵不堪,卡车(数据请求)排起长龙,进不去也出不来,整个系统的“物流”(数据处理)就会瘫痪!这就是磁盘I/O瓶颈。
开篇点题:磁盘I/O瓶颈是啥?为啥面试官也爱“刨根问底”?
磁盘I/O瓶颈是啥病? 简单说,就是服务器的“数据仓库管理员”(磁盘子系统)忙不过来了,处理数据的“装卸平台”(I/O通道)能力达到了极限。具体表现为:
- iowait飙高:CPU 大部分时间都在干等磁盘返回数据,闲得直挠头(比如%wa超过20%-30%甚至更高)。
- 应用响应奇慢:用户操作卡顿,页面加载不出来,后台任务处理龟速。
- 系统整体卡顿:甚至登录服务器执行命令都感觉费劲。
- 吞吐量下降/延迟剧增:磁盘每秒读写的数据量(吞吐量)上不去,或者每次读写操作的平均耗时(延迟 await)非常高。
为啥面试官爱问这个? 因为磁盘I/O是系统性能的常见瓶颈点,能有效考察你:
- 系统全局视野:懂不懂从硬件、操作系统到应用层全面分析问题?
- 问题诊断能力:会不会用iostat, vmstat, iotop这些“听诊器”和“显微镜”?
- 应急处理经验:线上磁盘快爆了,你知道先干啥能“续命”吗?
- 深层优化思维:除了加硬盘,还会不会从SQL、代码、架构层面想办法?
- “刨根问底”的精神:是不是内存不足导致的Swap?是不是某个烂SQL?还是日志打太多了?
核心思路:三大黄金法则傍身
在“疏通港口”之前,先牢记三大心法,保证临阵不乱:
法则一:救急优先,保命要紧!
- 大白话: 先想办法让系统别彻底卡死,能喘口气,再慢慢找是谁把“港口”堵了。用户的核心体验不能丢!
法则二:从表到里,逐层排查!
- 大白话: 先看整体磁盘忙不忙 (iostat %util) -> 是哪个进程在疯狂读写 (iotop) -> 这个进程为啥这么干(应用逻辑?数据库查询?日志?内存不足疯狂Swap?)。
法则三:多管齐下,标本兼治!
- 大白话: 不仅要解决眼前的拥堵(应急),更要从根本上优化“港口”设计和“交通规则”(应用和系统优化),防止以后再堵。
行动总纲:排查“三部曲”
有了心法,我们的行动路线图就很清晰了,分三步走:
第一部曲:紧急疏导!迅速缓解I/O压力 (事中应急)
- 目标: 快速降低磁盘负载,让关键业务先恢复基本运转,防止系统雪崩。
第二部曲:顺藤摸瓜!定位I/O元凶 (事中诊断)
- 目标: 在系统稍微稳定后,通过各种诊断工具和分析方法,找到导致磁盘I/O瓶颈的根本原因。
第三部曲:固本清源!根治与预防 (事后优化)
- 目标: 彻底解决问题,并优化系统、应用及运维策略,防止未来再次发生。
各个击破:三部曲详解
第一部曲:紧急疏导!迅速缓解I/O压力 (事中应急)
这时候,你就是“交通疏导员”,目标是快速缓解拥堵,让“港口”先别瘫痪。
第一时间干啥?—— 快速评估“堵情”,确认瓶颈
看监控大盘/工具:
top / htop:观察CPU的 %wa (iowait)
这是什么? top 或 htop 是一个动态的“工厂运行状态板”,能看到各个“机器”(进程)的忙碌程度。
%wa (iowait - I/O等待时间百分比):
- 通俗理解: CPU这位“全能加工机器”有多大比例的时间是在“发呆等仓库送料/取料”。
- 详细点说: %wa 表示CPU没有在执行程序代码(既不在用户态us,也不在内核态sy),也没有完全空闲(id),而是在等待磁盘I/O操作(比如读文件、写文件)完成。
- 为什么重要: 如果 %wa 非常高(比如超过20%-30%),说明CPU大部分时间都浪费在等待磁盘上了。即使CPU本身利用率(us+sy)不高,系统也会感觉很慢,因为任务都被卡在磁盘读写这里了。这就明确指向了磁盘可能是瓶颈。
vmstat 1:持续观察 b列、wa列,尤其关注 si / so 列
这是什么? vmstat 1 是一个每秒刷新一次的“工厂整体运营报告”,能看到很多关键指标的动态变化。
b (blocked - 阻塞进程数):
- 通俗理解: 有多少个“任务”(进程)因为在等待某些资源(通常是等待磁盘I/O完成,或者等待内存页换入)而被卡住,不能继续执行。
- 为什么重要: 如果这个数字持续比较大,说明很多任务都被卡住了,系统效率会很低。
wa (iowait CPU百分比): 和top里的一样,再次确认CPU等待I/O的情况。
si (swap in - 从磁盘换入内存) / so (swap out - 从内存换出到磁盘):
通俗理解:
- so (Swap Out): 内存(工作台)不够用了,系统不得不把一些暂时不用的“零件图纸”(内存页)从工作台搬到慢速的磁盘“储藏室”(Swap分区)里去。
- si (Swap In): 当需要用到之前被搬到“储藏室”的“零件图纸”时,又不得不从慢速的磁盘把它搬回到内存(工作台)上来。
为什么重要(这是非常关键的诊断点!): 如果 si 和 so 这两个值持续很大(比如每秒有几百KB甚至几MB的数据在交换),这通常意味着物理内存严重不足!电脑正在疯狂地使用慢速磁盘来充当临时内存(这个过程叫“交换”或“Swapping”)。这种操作对磁盘的读写压力非常大,会直接导致 %wa 飙高,系统性能急剧下降。
vmstat 里的 si 和 so 很高,就像您的电脑因为办公桌太小,不得不频繁地去远处又慢的档案室存取文件一样。这个“存取文件到档案室”的过程,就是大量的磁盘读写,所以磁盘会变得非常忙,整个电脑的反应也会变慢。
首要怀疑对象: 如果看到 si/so 很高,那么磁盘I/O瓶颈的根源很可能是内存不足,而不是磁盘本身的问题(虽然磁盘也会因此变得非常繁忙)。
iostat -xmt 1 或 iostat -xkz 1:核心磁盘诊断命令!
这是什么? iostat 是专门给“仓库”(磁盘)做的“体检报告”,-x 表示显示扩展信息,m 表示以MB为单位显示吞吐量(k表示KB),t 表示打印时间戳,1 表示每秒刷新一次,z 表示不显示无活动的设备(让输出更干净)。
%util (Device Utilization - 磁盘繁忙度百分比):
- 通俗理解: 磁盘在过去一秒内有多大比例的时间是“正在忙碌工作”(处理读写请求)。
- 为什么重要: 如果某个磁盘的 %util 持续接近或达到 100%,说明这个磁盘已经饱和了,它处理不过来那么多的请求,新的请求只能排队等待。这是磁盘成为瓶颈的直接证据。
await (Average Wait Time - 平均I/O等待时间,单位毫秒):
- 通俗理解: 每个数据请求(读或写)从发出到完成,平均需要等待多长时间。这个时间包括了请求在队列里排队的时间和磁盘实际处理请求的时间。
- 为什么重要: 如果 await 时间很长(比如对于SSD,几十毫秒可能就算长了;对于HDD,几百毫秒也很常见但说明很慢),意味着应用程序发起一个磁盘操作后要等很久才能得到响应,用户就会感觉到卡顿。
avgqu-sz (Average Queue Size - 平均I/O队列长度):
- 通俗理解: 平均有多少个数据请求在排队等着磁盘处理。
- 为什么重要: 如果这个队列长度持续很大(比如一直大于1或更高,具体数值要看磁盘类型和负载),说明请求到达的速度远快于磁盘的处理速度,导致请求积压。这通常和高 await 及高 %util 同时出现。
r/s (reads per second), w/s (writes per second):
- 通俗理解: 磁盘每秒钟完成了多少次“读操作”和多少次“写操作”。这两个值加起来可以粗略看作是磁盘的 IOPS (Input/Output Operations Per Second)。
- 如何解读: 单独看这两个数字意义不大,需要结合磁盘的性能上限。比如,一块普通SATA SSD的随机IOPS可能是几万,而一块高性能NVMe SSD可能是几十万甚至上百万。如果观察到的 r/s + w/s 接近了磁盘的标称IOPS上限,说明磁盘在处理请求次数方面可能达到瓶颈了。
rkB/s (read kilobytes/megabytes per second), wkB/s (write kilobytes/megabytes per second):
- 通俗理解: 磁盘每秒钟读取了多少数据量,写入了多少数据量。这表示磁盘的吞吐量 (Throughput)。
- 如何解读: 同样需要结合磁盘的性能上限。比如一块SATA SSD的顺序读写吞吐量可能在500MB/s左右,而NVMe SSD可能达到几GB/s。如果观察到的 rkB/s 或 wkB/s 接近了磁盘的标称吞吐量上限,说明磁盘在数据传输量方面可能达到瓶颈了。
总结一下,当您“看不懂”这些指标时,可以这样理解:
先用 top (看 %wa) 或 vmstat (看 b 和 wa) 初步判断: CPU是不是老在等磁盘?如果是,那磁盘可能有问题。
再用 vmstat (看 si 和 so) 进一步判断: 是不是因为内存不够,导致电脑老是拿慢速磁盘当内存用,才让磁盘那么忙?如果是,那主要矛盾是内存不足。
如果不是内存问题,或者想深入看磁盘到底怎么了,就用 iostat -xmt 1:
- 看 %util:磁盘是不是已经忙得喘不过气了 (快100%了)?
- 看 await:每个活儿是不是都要等很久才干完?
- 看 avgqu-sz:是不是有很多活儿在排队等着干?
- 看 r/s, w/s 和 rkB/s, wkB/s:磁盘实际干了多少活(次数和数据量)?对比一下它的设计能力(IOPS上限和吞吐量上限),是不是已经到头了?
通过这几个工具的配合使用,您就能比较清楚地判断出系统是不是遇到了磁盘I/O瓶颈,以及这个瓶颈有多严重,是由什么(内存不足?某个进程疯狂读写?磁盘本身慢?)引起的。
希望这次的解释能让您更好地理解这些命令和指标!
影响范围多大? 是单台服务器还是集群?影响了哪些核心业务?
怎么快速“疏通”?—— 应急“组合拳”伺候!
第1招:找出并“劝退”I/O大户 (如果能快速定位)
iotop: 立即运行,按I/O排序,看看是哪个进程在疯狂读写磁盘。
数据库进程 (如mysqld, postgresql)?
- 赶紧通知DBA!他们可能会用SHOW PROCESSLIST, SHOW FULL PROCESSLIST (MySQL) 或 pg_stat_activity (PostgreSQL) 找到最耗I/O的查询,并考虑KILL掉这些查询(DBA操作,需谨慎!)。
- 应用层面:暂时降级或关闭强依赖该数据库的非核心功能。
应用进程 (如Java, Python, Go应用)?
- 是某个后台批处理任务吗?(如数据导出、报表生成) -> 立即暂停或延后!
- 是业务高峰期的正常请求,但I/O处理不过来? -> 考虑应用层限流,在API网关或应用入口减少请求量。
- 怀疑是应用BUG(如死循环写文件)或某个功能触发了大量I/O? -> 如果能定位到,考虑回滚近期变更或重启该应用实例(摘流后)。
日志相关进程 (如rsyslogd, journald, filebeat, logstash)? -> 日志量太大?考虑临时调高日志级别(如从DEBUG到INFO),或暂停日志收集/转发组件。
第2招:缓解内存压力,减少Swap (如果si/so很高)
- top / htop (按内存使用%MEM或RES排序): 找出最耗内存的几个进程。
- 如果是非核心进程,或可以安全重启的进程,考虑kill掉它们释放内存。但这只是临时缓解,事后必须查明内存为何不足。
第3招:负载均衡层面操作
- 如果是集群中的某个节点I/O出问题,立即将其从负载均衡器中摘除,不再分配新流量给它。
第4招:清理不必要的磁盘空间 (如果磁盘空间本身也告急)
- df -h: 查看磁盘空间使用率。
- 如果某个分区(尤其是日志分区、数据分区、临时文件分区)空间快满了,快速删除可安全清理的旧日志、临时文件、过期备份等。因为某些文件系统在空间不足时性能会急剧下降。
第5招:广而告之,稳定军心!
- 在内部工作群通报:“XXX服务器出现磁盘I/O瓶颈,正在紧急处理,业务可能受影响,进展会同步!”
第二部曲:顺藤摸瓜!定位I/O元凶 (事中诊断)
诊断总思路: 从确认I/O瓶颈现象 -> 定位高I/O进程 -> 分析进程I/O行为 -> 若无明显进程则排查系统级/内存级问题 -> 最后考虑硬件层面。
步骤一:再次确认I/O瓶颈,并初步判断是“谁”在捣乱 (回顾第一部曲的发现)
在第一部曲“紧急疏导”时,我们已经通过 top, vmstat, iostat 初步判断了I/O瓶颈。现在,我们需要更系统地重新审视这些信息,并结合 iotop 来明确目标。
确认I/O等待 (%wa) 和磁盘繁忙度 (%util):
- 命令: 再次运行 top (或 htop) 和 iostat -xmt 1 (或 iostat -xkz 1)。
- 逻辑: 确认 %wa 依旧较高,并且 iostat 显示特定磁盘的 %util 持续接近100%,await 和 avgqu-sz 较大。这进一步证实了I/O瓶颈的存在。
直接定位I/O密集型进程:
- 命令: iotop -oP ( -o 只显示有实际I/O的进程/线程,-P 只显示进程)
- 逻辑: 此命令会直接按I/O使用量(读/写速率)列出当前最活跃的进程。
- 关注点: 记下消耗I/O最高的几个进程的PID和名称。这是我们主要的“嫌疑犯”。
步骤二:深入分析“嫌疑进程”的I/O行为
根据 iotop 的结果,我们将针对不同类型的“嫌疑进程”进行具体分析。
(A) 如果高I/O进程是数据库服务 (如 mysqld, postgresql):
逻辑: 数据库正在执行大量或低效的读写操作。
诊断行动与命令/工具:
通知DBA介入: 这是首要步骤,DBA拥有更专业的工具和经验。
查看活跃查询与状态:
- MySQL: SHOW FULL PROCESSLIST;
- PostgreSQL: SELECT * FROM pg_stat_activity WHERE state = 'active';
- 关注点: 哪些查询正在执行?执行了多久?状态是什么(如 sending data, writing to net, copying to tmp table 等可能涉及I/O)?
分析慢查询日志:
- 逻辑: 找出执行效率低下的SQL语句。
- 行动: DBA检查数据库配置是否开启慢查询日志,并分析日志内容。
审查执行计划:
- 命令: EXPLAIN <SQL语句>; (针对可疑的SQL)
- 关注点: 是否进行了全表扫描 (type: ALL)?是否正确使用了索引?预估扫描行数是否过大?
检查数据库内部性能指标:
- 关注点: Buffer Pool/Shared Buffer命中率(过低则物理读增加)、连接数、锁等待情况、临时表使用、WAL/Redo日志写入压力、脏页刷新情况等。这些通常通过数据库自身的监控视图或命令查看。
(B) 如果高I/O进程是应用服务 (如Java应用、Python脚本、Go程序等):
逻辑: 应用代码中存在大量文件操作、低效的数据库访问、或不合理的日志输出。
诊断行动与命令/工具:
分析应用日志:
- 逻辑: 查找错误、异常或与I/O操作(文件读写、数据库调用)相关的频繁日志条目。
- 行动: grep, awk, less 等命令分析应用自身输出的日志。
代码审查与逻辑分析:
- 逻辑: 如果近期有代码上线,优先审查变更部分。是否存在循环读写小文件、一次性读取超大文件到内存、不必要的全量数据同步等逻辑?
使用Profiler分析I/O事件 (如果环境允许且有相应工具):
- Java: async-profiler -e io ... 或 JProfiler/YourKit 的I/O分析功能。
- Linux通用: perf record -e 'block:*' -ag -p <PID> 然后 perf report (需要一定内核知识)。
- 关注点: 哪些代码路径触发了最多的文件I/O或网络I/O。
对于JVM应用 (如Java):
逻辑: 检查是否因GC或内存问题间接导致I/O压力。
命令/行动:
- jstat -gcutil <PID> 1000:观察GC频率和耗时。频繁Full GC会导致应用STW,STW期间累积的I/O请求可能在恢复后集中爆发。
- jmap -heap <PID>:查看堆内存使用情况。
- 检查是否使用了大量堆外内存,其分配和回收也可能涉及I/O。
查看进程打开的文件和连接:
- 命令: lsof -p <PID>
- 关注点: 进程打开了哪些文件?数量是否异常多?是否有大量网络连接?
(C) 如果高I/O进程是日志相关服务 (如 rsyslogd, journald, filebeat, logstash, fluentd):
逻辑: 系统或某个应用产生了过量的日志,或者日志收集/转发组件配置不当。
诊断行动与命令/工具:
- 确认日志来源: 是哪个应用或系统模块在疯狂输出日志?(通常需要结合应用日志或配置)
- 检查日志配置文件: 日志级别是否过低(如生产环境开了DEBUG)?日志轮转策略是否合理?收集目标是否配置正确?
- 临时调整日志级别或暂停组件: 作为应急手段,可以临时调高问题应用的日志级别,或暂停日志收集/转发组件观察I/O是否下降。
步骤三:若无明显高I/O进程,或怀疑系统级问题 (包括内存不足导致的Swap)
如果 iotop 没有明确指向单一“罪魁祸首”,或者多个进程都有一定量的I/O,或者您在第一步通过 vmstat 高度怀疑是内存问题,则需要从系统层面排查。
深入排查内存与Swap问题 (这是导致I/O瓶颈的常见“幕后黑手”):
命令: 持续运行 vmstat 1,同时 free -m。
逻辑: 再次确认 si (swap in) 和 so (swap out) 是否持续很高。如果是,则内存不足是主要矛盾。
行动:
找出内存消耗大户: ps aux --sort -rss 或 top (启动后按 M 键按内存排序)。
对内存消耗大的JVM应用:
- jmap -histo <PID> | head -n 20:查看堆内对象统计。
- 考虑生成Heap Dump (jmap -dump:format=b,file=heap.hprof <PID>) 进行离线分析(使用MAT等工具),排查内存泄漏或不合理的内存使用。
- 检查JVM启动参数中 -Xmx (最大堆内存) 是否设置过小。
检查系统级配置与状态:
内核日志:
- 命令: dmesg -T 或 journalctl -xe -p err..alert (查看错误及以上级别的日志)
- 逻辑: 查找是否有内核报告的磁盘硬件错误、文件系统错误(如 EXT4-fs error)、I/O调度器相关的警告或错误信息。
I/O调度器检查:
- 命令: cat /sys/block/sdX/queue/scheduler (将 sdX 替换为具体的磁盘设备名,如 sda, nvme0n1)
- 逻辑: 当前使用的是哪个I/O调度器?(例如,对于SSD,通常 noop 或 mq-deadline/none 是较好的选择;对于HDD,cfq 或 deadline 可能更合适)。调度器选择不当可能影响性能。
文件系统挂载参数:
- 命令: mount | grep /dev/sdX (将 sdX 替换为具体的磁盘设备名或挂载点)
- 逻辑: 检查挂载选项。是否误用了 sync (同步写,严重影响性能)?是否启用了 noatime, nodiratime (推荐,减少不必要的元数据更新)?
内核VM参数 (脏页回写策略):
- 命令: sysctl -a | grep dirty
- 逻辑: 关注 vm.dirty_background_ratio, vm.dirty_ratio, vm.dirty_expire_centisecs, vm.dirty_writeback_centisecs 等参数。这些参数控制了Page Cache中的脏数据(已修改但未写入磁盘的数据)如何以及何时被回写到磁盘。配置不当可能导致突发性的集中I/O风暴,或者持续的较高I/O。
步骤四:考虑硬件层面问题 (通常需要运维或硬件团队配合)
如果以上软件和系统配置层面均未找到明确原因,或者 dmesg 中有硬件相关的报错,则需要考虑硬件问题。
RAID阵列状态:
- 命令/行动: cat /proc/mdstat (查看Linux软件RAID状态);对于硬件RAID卡,需要使用厂商提供的管理工具(如 megacli, storcli)。
- 关注点: 是否有磁盘掉线导致RAID阵列降级 (degraded)?RAID卡电池是否正常?
物理磁盘健康状态 (SMART信息):
- 命令: smartctl -a /dev/sdX
- 关注点: 查看是否有预警错误、重映射扇区计数 (Reallocated_Sector_Ct)、读取错误率等表明磁盘物理层面可能存在问题的指标。
共享存储(SAN/NAS)检查:
- 逻辑: 如果使用的是网络附加存储或存储区域网络,瓶颈可能在存储设备本身或连接到存储的网络。
- 行动: 需要联系存储管理员检查存储阵列的负载、响应时间、网络带宽使用情况等。
第三部曲:固本清源!根治与预防 (事后优化)
找到“真凶”并暂时控制住局面后,必须从根本上解决问题,并建立长效机制。
硬件与基础设施层面优化:
- 升级磁盘是王道: 如果是HDD瓶颈,果断升级到SSD,尤其是对数据库、MQ等I/O敏感型应用。对性能要求极致的,上NVMe SSD。
- 增加物理内存: 如果是Swap导致的I/O问题,加内存是最直接有效的。
- 优化RAID配置: 根据读写特性选择合适的RAID级别(如RAID 10对数据库通常友好)。
- 专用存储: 为I/O大户(如数据库)提供独立的、高性能的存储,避免争用。
操作系统与文件系统调优:
- 选择合适的I/O调度器: SSD通常用noop或deadline/kyber (mq-deadline for blk-mq)。
- 优化文件系统挂载选项: 默认启用noatime, nodiratime。避免sync。
- 调整内核VM参数: 合理配置脏页回写策略(如vm.dirty_bytes, vm.dirty_background_bytes),平滑I/O峰值。适当调低vm.swappiness(如10或1,但不要轻易设为0)。
应用与数据库层面深度优化 (这是重中之重!):
数据库优化“全家桶”:
- SQL调优: 消灭慢查询、全表扫描,确保核心查询走最优索引。
- 索引优化: 添加缺失索引、删除无用索引、优化复合索引顺序、用好覆盖索引。
- 提升数据库缓存命中率: 大幅增加数据库Buffer Pool/Shared Buffers。
- 架构调整: 考虑读写分离、数据库表分区/分片。
应用代码I/O行为改进:
- 引入应用级缓存/分布式缓存 (Redis/Memcached): 大幅减少对数据库的直接读请求。
- 使用缓冲I/O (Buffered I/O): 避免大量小块直接I/O。
- 批量操作大法: 将多次小I/O合并为一次大I/O(如批量插入/更新数据库,批量读写文件)。
- 异步I/O: 对非阻塞、可并行的I/O操作,使用异步模式。
日志系统“减负”:
- 合理日志级别: 生产环境禁用DEBUG/TRACE。
- 异步日志: 使用异步Appender。
- 集中式日志管理 (ELK/Splunk/Loki): 日志实时推送到中央平台,减少本地磁盘压力。
后台任务与调度策略:
- 将备份、ETL、报表等I/O密集型任务严格安排在业务低峰期执行,并控制其并发度和资源占用。
加强“哨兵”建设 (监控告警与容量规划):
- 精细化I/O监控: 持续监控%util, await, avgqu-sz, IOPS, 吞吐量,以及Swap使用情况,并设置科学的、多梯度的告警。
- 进程级I/O监控: 定期或通过工具追踪哪些进程是I/O消耗大户。
- 趋势分析与容量规划: 定期回顾I/O使用趋势,预测瓶颈,提前规划硬件升级或架构调整。
组织“消防演练” (故障演练):
- 定期模拟高I/O负载或磁盘故障场景,检验应急预案的有效性和团队的响应速度。
- 将排查和处理流程SOP化,固化到知识库。
开个“诸葛亮会” (复盘总结):
- 每次事件后,组织相关人员复盘,分析根本原因,总结经验教训,改进措施,持续提升。
💡 面试小贴士:如何让面试官眼前一亮?
- 展现结构化思维: 清晰地阐述应急、诊断、根治的步骤。
- 工具运用熟练: 不仅知道top,更能熟练说出iostat, vmstat, iotop等工具的关键指标和用途。
- 深挖根源,不停留在表面: 能想到iowait高可能是内存不足引起的Swap,这绝对是加分项。
- 方案有层次: 从应用层优化(缓存、SQL、异步)到系统层(内核参数、I/O调度器)再到硬件层(SSD、加内存),体现解决问题的全面性。
- 强调监控与预防: 体现“治未病”的思想和长期运维经验。
- 结合实际案例(如果有的话): “之前我们遇到数据库I/O瓶颈,通过iotop定位到是mysqld,DBA用EXPLAIN发现一个千万级大表的查询没走索引,加了索引后await从300ms降到5ms...” 这样的描述非常有说服力。
这套“三部曲”心法,希望能帮你从容应对面试中关于磁盘I/O瓶颈的各种“拷问”!祝你面试顺利!