Linux

drdb 驅動器上的 I/O 使用率很高

  • October 18, 2016

drdb 驅動器上的 I/O 使用率很高,但底層驅動器上的使用率非常低。忽略 DRDB 驅動器上 I/O 的使用是否正確,因為底層磁碟使用情況很好。

我們有 4 個 Redhat Boxes Dell PowerEdge R630(比如 a、b、c、d)具有以下作業系統/軟體包。

RedHat EL 6.5 MySql Enterprise 5.6 DRBD 8.4 Corosync 1.4.7

我們設置了 4 路堆疊的 drbd 資源,如下所示:

集群Cluster-1:伺服器a和b相互連接本地區域網路集群Cluster-2:伺服器c和d

Cluster Cluster-1 和 Cluster-2 通過虛擬 IP 通過堆疊的 drbd 連接,並且是不同數據中心的一部分。

drbd0 磁碟已在每台伺服器上本地創建 1GB,並進一步附加到 drbd10。

正常的基礎磁碟使用情況:-

   Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
sda2              0.00  3718.00    0.00  441.00     0.00 33268.00    75.44     0.06    0.13   0.08   3.35

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          1.25    0.00    0.81    1.75    0.00   96.18

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
sda2              0.00  1242.00    0.00  133.50     0.00 11008.00    82.46     0.02    0.17   0.11   1.45

在同一時間高的虛擬驅動器 I/O 使用率:-

Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
drbd10            0.00     0.00    0.00   23.50     0.00   188.00     8.00     3.41    6.11  38.17  89.70

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
         24.42    0.00    0.69    0.06    0.00   74.83 

為了檢查 DRBD 的 I/O 使用情況,我們應該監控哪個驅動器?

在Google上我發現了這個連結:- http://lists.linbit.com/pipermail/drbd-user/2012-January/017622.html

眾所周知,虛擬 DRBD 設備上的 iostats 非常不准確。建議只是簡單地忽略它們。

相反,只需檢查 DRBD 配置為使用的支持磁碟的 iostats。這應該讓您對 IO 有一個準確的了解。

引用自:https://serverfault.com/questions/809720