Linux
查找重複文件的 Linux 工具?
我有一個龐大且不斷增長的文本文件集,它們都非常小(小於 100 字節)。我想區分每對可能的文件並註意哪些是重複的。我可以編寫一個 Python 腳本來做到這一點,但我想知道是否有一個現有的 Linux 命令行工具(或者可能是一個簡單的工具組合)可以做到這一點?
更新(響應mfinni評論):文件都在一個目錄中,所以它們都有不同的文件名。(但它們都有一個共同的文件副檔名,因此可以很容易地用萬用字元選擇它們。)
有fdupes。但我通常使用的組合
find . -type f -exec md5sum '{}' \; | sort | uniq -d -w 36
那麼有 FSlint - 我沒有在這種特殊情況下使用它,但我應該能夠處理它: http ://en.flossmanuals.net/FSlint/Introduction