Heartbeat

NFS exportfs 垃圾郵件日誌。這是一個損壞的設置嗎?

  • August 27, 2012

我有一個執行 Ubuntu 10.04 的 NFS 伺服器,為 OCFS2 文件系統提供服務。設置有點複雜,因為伺服器安裝了 Heartbeat 和 Pacemaker 以與另一台伺服器建立集群。

無論如何,奇怪的事情:

# tail -12 /var/log/messages
Jul 17 17:15:45 ctserv01 exportfs[14870]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started).
Jul 17 17:15:45 ctserv01 exportfs[14869]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started).
Jul 17 17:15:45 ctserv01 exportfs[14871]: INFO: Directory /export is exported to 172.16.54.0/24 (started).
Jul 17 17:16:15 ctserv01 exportfs[15960]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started).
Jul 17 17:16:15 ctserv01 exportfs[15961]: INFO: Directory /export is exported to 172.16.54.0/24 (started).
Jul 17 17:16:15 ctserv01 exportfs[15962]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started).
Jul 17 17:16:45 ctserv01 exportfs[17054]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started).
Jul 17 17:16:45 ctserv01 exportfs[17055]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started).
Jul 17 17:16:45 ctserv01 exportfs[17056]: INFO: Directory /export is exported to 172.16.54.0/24 (started).
Jul 17 17:17:15 ctserv01 exportfs[18168]: INFO: Directory /export is exported to 172.16.54.0/24 (started).
Jul 17 17:17:15 ctserv01 exportfs[18169]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started).
Jul 17 17:17:15 ctserv01 exportfs[18170]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started).

日誌顯示 exportfs 每 30 秒重新生成一次。NFS 伺服器大部分時間工作正常,但幾天后,它開始每 13-15 分鐘掛起長達 20 秒,人們為此大吵大鬧。

也許起搏器、心跳或其他東西是造成這種情況的原因。或者也許這是預期的行為,問題應該出在其他地方?

Pacemaker 配置(注意 /export/proyectos 現已停止):

# crm configure show
node $id="06334af6-e766-457c-8c30-457080276507" ctserv01
node $id="bf53e028-9f27-4ef3-bb45-4fcef981e441" ctserv02
primitive ClusterIP ocf:heartbeat:IPaddr2 \
   params ip="172.16.54.56" cidr_netmask="24" nic="eth0"
primitive exports_nfs_home ocf:heartbeat:exportfs \
   params rmtab_backup="none" directory="/export/homes" clientspec="172.16.54.0/24" options="rw,async,no_subtree_check,insecure,root_squash" fsid="1" \
   op monitor interval="30s" \
   op start interval="0" timeout="240s" \
   meta target-role="Started"
primitive exports_nfs_proys ocf:heartbeat:exportfs \
   params rmtab_backup="none" directory="/export/proyectos" clientspec="172.16.54.0/24" options="rw,async,no_subtree_check,insecure,root_squash" fsid="2" \
   op monitor interval="30s" \
   op start interval="0" timeout="240s" \
   meta target-role="Stopped"
primitive exports_nfs_root ocf:heartbeat:exportfs \
   params rmtab_backup="none" directory="/export" clientspec="172.16.54.0/24" options="rw,async,no_subtree_check,insecure" fsid="0" \
   op monitor interval="30s" \
   op start interval="0" timeout="240s"
group grupo_nfs ClusterIP exports_nfs_root exports_nfs_home exports_nfs_proys
location nodo_preferido grupo_nfs 100: 06334af6-e766-457c-8c30-457080276507
order orden_de_recursos inf: ClusterIP exports_nfs_root exports_nfs_home exports_nfs_proys
property $id="cib-bootstrap-options" \
   dc-version="1.1.6-9971ebba4494012a93c03b40a2c58ec0eb60f50c" \
   cluster-infrastructure="Heartbeat" \
   stonith-enabled="false" \
   no-quorum-policy="ignore" \
   expected-quorum-votes="2" \
   cluster-recheck-interval="60min"

您看到的垃圾日誌消息來自ocf:heartbeat:exportfs資源代理。它們每 30 秒出現一次,這對應於您在 exportfs 原語定義中指定的監視間隔。資源代理有點過於冗長,恕我直言,但這應該不是問題。只要確保您的 logrotate 足夠頻繁,日誌不會填滿您的磁碟。或者將資源代理編輯為不那麼冗長。

您的問題可能在您的集群設置中的某個更深的地方。您發布的 Pacemaker 配置是否完整?在我看來,集群並沒有管理它應該管理的所有資源,比如 NFS 伺服器本身、idmapd 或綁定掛載。

眾所周知,NFS(在 Linux 下)很難在 HA 環境中正確使用。我建議您閱讀Linbit 的 HA NFS 技術指南,這些人製作了 DRBD 和大部分 Linux HA 堆棧。需要免費註冊,但它是關於設置工作穩定的 NFS HA 集群的非常好的和詳細的指南。我們在生產中執行多個這樣的集群。

引用自:https://serverfault.com/questions/408544