Heartbeat
NFS exportfs 垃圾郵件日誌。這是一個損壞的設置嗎?
我有一個執行 Ubuntu 10.04 的 NFS 伺服器,為 OCFS2 文件系統提供服務。設置有點複雜,因為伺服器安裝了 Heartbeat 和 Pacemaker 以與另一台伺服器建立集群。
無論如何,奇怪的事情:
# tail -12 /var/log/messages Jul 17 17:15:45 ctserv01 exportfs[14870]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started). Jul 17 17:15:45 ctserv01 exportfs[14869]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started). Jul 17 17:15:45 ctserv01 exportfs[14871]: INFO: Directory /export is exported to 172.16.54.0/24 (started). Jul 17 17:16:15 ctserv01 exportfs[15960]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started). Jul 17 17:16:15 ctserv01 exportfs[15961]: INFO: Directory /export is exported to 172.16.54.0/24 (started). Jul 17 17:16:15 ctserv01 exportfs[15962]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started). Jul 17 17:16:45 ctserv01 exportfs[17054]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started). Jul 17 17:16:45 ctserv01 exportfs[17055]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started). Jul 17 17:16:45 ctserv01 exportfs[17056]: INFO: Directory /export is exported to 172.16.54.0/24 (started). Jul 17 17:17:15 ctserv01 exportfs[18168]: INFO: Directory /export is exported to 172.16.54.0/24 (started). Jul 17 17:17:15 ctserv01 exportfs[18169]: INFO: Directory /export/proyectos is exported to 172.16.54.0/24 (started). Jul 17 17:17:15 ctserv01 exportfs[18170]: INFO: Directory /export/homes is exported to 172.16.54.0/24 (started).
日誌顯示 exportfs 每 30 秒重新生成一次。NFS 伺服器大部分時間工作正常,但幾天后,它開始每 13-15 分鐘掛起長達 20 秒,人們為此大吵大鬧。
也許起搏器、心跳或其他東西是造成這種情況的原因。或者也許這是預期的行為,問題應該出在其他地方?
Pacemaker 配置(注意 /export/proyectos 現已停止):
# crm configure show node $id="06334af6-e766-457c-8c30-457080276507" ctserv01 node $id="bf53e028-9f27-4ef3-bb45-4fcef981e441" ctserv02 primitive ClusterIP ocf:heartbeat:IPaddr2 \ params ip="172.16.54.56" cidr_netmask="24" nic="eth0" primitive exports_nfs_home ocf:heartbeat:exportfs \ params rmtab_backup="none" directory="/export/homes" clientspec="172.16.54.0/24" options="rw,async,no_subtree_check,insecure,root_squash" fsid="1" \ op monitor interval="30s" \ op start interval="0" timeout="240s" \ meta target-role="Started" primitive exports_nfs_proys ocf:heartbeat:exportfs \ params rmtab_backup="none" directory="/export/proyectos" clientspec="172.16.54.0/24" options="rw,async,no_subtree_check,insecure,root_squash" fsid="2" \ op monitor interval="30s" \ op start interval="0" timeout="240s" \ meta target-role="Stopped" primitive exports_nfs_root ocf:heartbeat:exportfs \ params rmtab_backup="none" directory="/export" clientspec="172.16.54.0/24" options="rw,async,no_subtree_check,insecure" fsid="0" \ op monitor interval="30s" \ op start interval="0" timeout="240s" group grupo_nfs ClusterIP exports_nfs_root exports_nfs_home exports_nfs_proys location nodo_preferido grupo_nfs 100: 06334af6-e766-457c-8c30-457080276507 order orden_de_recursos inf: ClusterIP exports_nfs_root exports_nfs_home exports_nfs_proys property $id="cib-bootstrap-options" \ dc-version="1.1.6-9971ebba4494012a93c03b40a2c58ec0eb60f50c" \ cluster-infrastructure="Heartbeat" \ stonith-enabled="false" \ no-quorum-policy="ignore" \ expected-quorum-votes="2" \ cluster-recheck-interval="60min"
您看到的垃圾日誌消息來自
ocf:heartbeat:exportfs
資源代理。它們每 30 秒出現一次,這對應於您在 exportfs 原語定義中指定的監視間隔。資源代理有點過於冗長,恕我直言,但這應該不是問題。只要確保您的 logrotate 足夠頻繁,日誌不會填滿您的磁碟。或者將資源代理編輯為不那麼冗長。您的問題可能在您的集群設置中的某個更深的地方。您發布的 Pacemaker 配置是否完整?在我看來,集群並沒有管理它應該管理的所有資源,比如 NFS 伺服器本身、idmapd 或綁定掛載。
眾所周知,NFS(在 Linux 下)很難在 HA 環境中正確使用。我建議您閱讀Linbit 的 HA NFS 技術指南,這些人製作了 DRBD 和大部分 Linux HA 堆棧。需要免費註冊,但它是關於設置工作穩定的 NFS HA 集群的非常好的和詳細的指南。我們在生產中執行多個這樣的集群。