Linux
drdb 驅動器上的 I/O 使用率很高
drdb 驅動器上的 I/O 使用率很高,但底層驅動器上的使用率非常低。忽略 DRDB 驅動器上 I/O 的使用是否正確,因為底層磁碟使用情況很好。
我們有 4 個 Redhat Boxes Dell PowerEdge R630(比如 a、b、c、d)具有以下作業系統/軟體包。
RedHat EL 6.5 MySql Enterprise 5.6 DRBD 8.4 Corosync 1.4.7
我們設置了 4 路堆疊的 drbd 資源,如下所示:
集群Cluster-1:伺服器a和b相互連接本地區域網路集群Cluster-2:伺服器c和d
Cluster Cluster-1 和 Cluster-2 通過虛擬 IP 通過堆疊的 drbd 連接,並且是不同數據中心的一部分。
drbd0 磁碟已在每台伺服器上本地創建 1GB,並進一步附加到 drbd10。
正常的基礎磁碟使用情況:-
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda2 0.00 3718.00 0.00 441.00 0.00 33268.00 75.44 0.06 0.13 0.08 3.35 avg-cpu: %user %nice %system %iowait %steal %idle 1.25 0.00 0.81 1.75 0.00 96.18 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util sda2 0.00 1242.00 0.00 133.50 0.00 11008.00 82.46 0.02 0.17 0.11 1.45
在同一時間高的虛擬驅動器 I/O 使用率:-
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util drbd10 0.00 0.00 0.00 23.50 0.00 188.00 8.00 3.41 6.11 38.17 89.70 avg-cpu: %user %nice %system %iowait %steal %idle 24.42 0.00 0.69 0.06 0.00 74.83
為了檢查 DRBD 的 I/O 使用情況,我們應該監控哪個驅動器?
在Google上我發現了這個連結:- http://lists.linbit.com/pipermail/drbd-user/2012-January/017622.html
眾所周知,虛擬 DRBD 設備上的 iostats 非常不准確。建議只是簡單地忽略它們。
相反,只需檢查 DRBD 配置為使用的支持磁碟的 iostats。這應該讓您對 IO 有一個準確的了解。