Cara mendeteksi dan menghapus file duplikat di Linux

Pembaharuan Terakhir: 28/01/2026
penulis: Isaac
  • En Linux Terdapat alat berbasis konsol (fdupes, rdfind, fclones, yadf) dan alat berbasis grafis (FSlint, dupeGuru, Czkawka) untuk menemukan file duplikat berdasarkan konten.
  • Utilitas modern seperti fclones dan yadf memungkinkan penyaringan berdasarkan ukuran, pola, dan jumlah salinan, serta menawarkan mode simulasi untuk mencegah penghapusan yang tidak disengaja.
  • Aplikasi grafis memudahkan untuk meninjau hasil secara visual dan memilih apa yang akan dihapus, dipindahkan, atau dihubungkan tanpa harus mengingat pilihan yang ada. terminal.
  • Sangat penting untuk melakukan pengujian terlebih dahulu pada rute uji, menggunakan mode uji coba, dan menyimpan cadangan sebelum menghapus duplikat secara massal.

Cara mendeteksi file duplikat di Linux

Jika Anda menggunakan Linux setiap hari, cepat atau lambat Anda akan menemui peringatan umum berikut ini: kekurangan ruang disk padahal Anda bersumpah bahwa Anda hampir tidak pernah menyimpan apa pun.Cadangan, descargas Foto yang berulang, gambar RAW berukuran besar, video, dokumen yang diduplikasi ribuan kali… semuanya akan menumpuk hingga sistem mulai kehabisan ruang penyimpanan.

Kabar baiknya adalah di GNU/Linux kita memiliki banyak utilitas, baik itu baris perintah serta dengan antarmuka grafis, untuk mendeteksi dan menghapus file duplikat. Cukup aman. Kabar buruknya adalah jika Anda tidak benar-benar tahu apa yang Anda lakukan, Anda bisa menghapus sesuatu yang penting. Itulah mengapa kita akan melihat semua alat klasik dan modern, cara kerjanya, dan tindakan pencegahan apa yang harus Anda ambil.

Mengapa pencarian file duplikat di Linux bermanfaat?

Hard drive saat ini relatif murah, tetapi jumlah data yang kita simpan terus bertambah, dan sebagian besar data tersebut... berkas berukuran sangat besar seperti foto RAW, video resolusi tinggi, dan seluruh cadangan data.Jika Anda juga memiliki beberapa salinan file yang sama yang tersebar di berbagai folder, ruang yang terbuang bisa sangat besar.

Dalam lingkungan bersama, seperti server file di sekolah atau perusahaan, sangat umum bagi setiap pengguna untuk membuat salinan dokumen bersama mereka sendiri, alih-alih menggunakan tautan simbolik atau tautan keras untuk mengarah ke file asliHasilnya adalah gudang yang penuh dengan duplikat, dan sistem tersebut sangat membutuhkan ruang.

Selain membuang ruang penyimpanan, file duplikat juga memengaruhi pengorganisasian. Sangat mudah untuk memiliki beberapa versi file yang sama di lokasi yang berbeda dan tidak mengetahui apa yang sebenarnya terjadi. Mana yang asli, mana yang salinannya bagus, dan mana yang harus Anda hapus?Oleh karena itu, penting untuk memiliki alat yang memeriksa isi file, bukan hanya namanya.

Pendekatan untuk mendeteksi duplikat: konsol vs antarmuka grafis

Di Linux, kita dapat mengatasi masalah ini dengan utilitas terminal atau aplikasi grafis. Aplikasi konsol seperti fdupes, rdfind, fclones, atau yadf terintegrasi dengan sangat baik ke dalam skrip dan alur kerja tingkat lanjut.dan mereka cenderung lebih cepat dan lebih fleksibel saat menyaring hasil.

Di sisi lain, jika Anda ingin dengan tenang meninjau foto-foto Anda di hard drive eksternal 500GB dan memutuskan apa yang akan dihapus tanpa rasa takut, Anda mungkin akan merasa jauh lebih nyaman menggunakan antarmuka grafis seperti FSlint, dupeGuru, Czkawka, Krokiet atau fclones-guidi mana hasilnya ditampilkan dalam bentuk daftar, dengan kotak untuk dicentang dan tidak dicentang.

fdupes: alat klasik untuk menemukan duplikat dari terminal.

fdupes adalah salah satu alat tertua dan paling banyak digunakan untuk menemukan file duplikat di Linux dari baris perintah.Program ini ditulis dalam bahasa C, merupakan perangkat lunak bebas, dan Anda akan menemukannya di repositori hampir semua distribusi Linux.

Metodologi mereka cukup solid: pertama, mereka membandingkan Proses ini mengukur ukuran file, kemudian menghitung tanda tangan MD5 parsial, lalu tanda tangan MD5 lengkap, dan akhirnya melakukan perbandingan byte demi byte. untuk memastikan bahwa kedua file tersebut identik. Hal ini mencegah kesalahan positif yang hanya didasarkan pada hash atau nama.

Di Debian, Ubuntu dan turunannya, Anda dapat menginstalnya dengan:

sudo apt-get install fdupes

Pada distribusi dan turunan tipe Red Hat, Anda akan menggunakan:

sudo yum install fdupes

Fedora (dnf) atau Arch Linux juga memiliki paket yang tersedia:

sudo dnf install fdupes
sudo pacman -S fdupes

Setelah terinstal, penggunaan dasar untuk menampilkan daftar duplikat dalam sebuah direktori, seperti folder unduhan Anda, sangat sederhana:

fdupes ~/Descargas

Jika Anda menginginkan analisisnya bersifat rekursif dan mencakup semua subdirektori, tambahkan opsi -r:

fdupes -r ~/Descargas

Untuk diabaikan berkas kosong yang hanya mengacaukan daftar, Anda dapat gunakan:

fdupes -n <ruta del directorio>

Jika Anda ingin mengetahui berapa banyak kapasitas yang terbuang oleh sistem Anda karena data duplikat, Anda memiliki opsi -S, yang menampilkan ukuran file duplikat:

fdupes -S <ruta del directorio>

Dan jika Anda memerlukan laporan untuk diproses nanti dengan alat lain, Anda selalu dapat mengarahkan output ke file teks:

fdupes <ruta del directorio> > output.txt

Hapus file duplikat dengan fdupes (dengan sangat hati-hati)

fdupes tidak hanya menemukan file hasil kloning, tetapi juga dapat membantu Anda membersihkannya. Dengan opsi -d, program ini Sistem akan menanyakan kepada Anda, kelompok demi kelompok, file mana yang ingin Anda simpan. dan akan menghilangkan sisanya:

fdupes -d <ruta del directorio>

Ada kemungkinan untuk mengotomatisasi proses lebih lanjut dengan parameter seperti –delete, –noprompt atau -N, yang memaksa penghapusan duplikat, hanya menyimpan file pertama yang ditemukan.Namun dalam praktiknya, menggunakannya secara membabi buta sangatlah berisiko.

Jika Anda ingin bermain aman, pendekatan yang sangat disarankan adalah hanya menggunakan fdupes untuk Buat daftar jalur file duplikat lalu pindahkan ke lokasi lain menggunakan perintah mv.Dengan cara ini Anda dapat meninjau "karantina" tersebut sebelum melakukan penghapusan akhir:

  Perawatan Hard Drive di Linux: Panduan Lengkap dan Praktis

fdupes -r <ruta> > duplicados.log

Ada baiknya juga mempertimbangkan opsi -m, yang memberikan ringkasan jumlah file duplikat dan total ruang yang ditempati, sesuatu yang sangat berguna untuk perkirakan berapa banyak penghasilan yang akan Anda peroleh dari pekerjaan membersihkan.:

fdupes -m <ruta del directorio>

Terakhir, berhati-hatilah dengan parameter -s, karena dapat menyebabkan fdupes. ikuti tautan simbolik (symlink)Jika Anda menggabungkannya dengan opsi penghapusan, Anda mungkin akan menyentuh file di luar jalur yang ingin Anda analisis, karena tautan tersebut mengarahkan Anda ke area lain dalam sistem file.

rdfind: mencari data redundan dengan pendekatan cerdas

rdfind (redundant data find) adalah utilitas lain yang sangat populer untuk mendeteksi file duplikat di Linux.Perangkat lunak ini juga gratis dan tersedia di repositori utama: apt, yum, dnf, pacman, dll.

Filosofinya mirip dengan fdupes, tetapi ia menggabungkan algoritma pengurutan sendiri untuk mengambil keputusan. File mana yang Anda anggap "asli" dan mana yang merupakan duplikat?Aturan prioritas yang digunakannya adalah:

  • Jika berkas A ditemukan saat memparsing argumen masukan sebelum B, maka A memiliki prioritas atas B..
  • Jika A berada pada tingkat kedalaman yang lebih rendah daripada B (lebih dekat ke direktori akar yang dipindai), maka A diprioritaskan.
  • Jika kedua kriteria tersebut terpenuhi, maka tetap pada yang ditemukan pertama kali selama pemindaian.

Untuk menginstalnya di Debian atau Ubuntu, cukup:

sudo apt-get install rdfind

CentOS/RHEL biasanya membutuhkan repositori EPEL:

sudo yum install epel-release
sudo yum install rdfind

Ini juga tersedia dalam paket Fedora dan Arch Linux:

sudo dnf install rdfind
sudo pacman -S rdfind

Penggunaan dasarnya tidak rumit. Untuk menganalisis direktori pribadi Anda, Anda dapat melakukan hal berikut:

rdfind /home/usuario

Program ini akan menulis sebuah file bernama file results.txt di direktori tempat Anda menjalankannya.Berkas ini berisi semua grup duplikat yang telah terdeteksi. Anda dapat meninjaunya untuk memutuskan apa yang akan dilakukan secara manual atau mengotomatiskan tindakan selanjutnya.

Jika Anda menginginkan uji coba pertama tanpa mengubah apa pun, opsi -dryrun adalah sekutu Anda. Opsi ini menghasilkan laporan duplikat tetapi... tanpa menerapkan perubahan pada sistem file:

rdfind -dryrun true /home/usuario

Salah satu fitur yang sangat menarik dari rdfind adalah memungkinkan Anda untuk, alih-alih menghapus, Ganti file duplikat dengan hard link., dengan menyimpan satu salinan fisik data di disk:

rdfind -makehardlinks true /home/usuario

Jika Anda ingin menghapus duplikat secara langsung, Anda dapat memanggilnya seperti ini (sekali lagi, sebaiknya uji terlebih dahulu di folder uji):

rdfind -deleteduplicates true /home/usuario

fclones dan yadf: alat modern dan sangat cepat

Selain aplikasi klasik, utilitas baru juga muncul dalam beberapa tahun terakhir, seperti: fclones dan yadf, ditulis dalam Rust dan memiliki kinerja luar biasa pada disk besar.Algoritma ini dirancang agar sangat cepat, dengan mempertimbangkan ukuran file, hash, dan perbandingan byte demi byte hanya jika benar-benar diperlukan.

fclones: grup, tautan, pemindahan, dan penghapusan duplikat

fclones didefinisikan sebagai alat untuk menemukan dan menghapus file duplikat dari terminal.Namun kekuatannya jauh melampaui itu: ia mengidentifikasi kelompok file yang identik dan memungkinkan berbagai tindakan pada file tersebut, mulai dari menghapusnya hingga menggantinya dengan tautan atau menduplikasinya menggunakan kemampuan copy-on-write dari sistem file.

Di Arch Linux dan turunannya, Anda dapat menginstalnya dari AUR dengan perintah berikut:

paru -S fclones

Pada distribusi Linux lainnya, pengembang merekomendasikan untuk mengkompilasinya dari kode sumber menggunakan cargo:

cargo install fclones

Setelah instalasi, sangat berguna untuk mengaktifkan fitur pelengkapan otomatis berdasarkan shell Anda dengan menambahkan baris seperti ini ke konfigurasi Anda:

  • Menampar: eval "$(fclones complete bash)" en ~/.bashrc
  • Zsh: source <(fclones complete zsh) en ~/.zshrc
  • Ikan: fclones complete fish | source en ~/.config/fish/config.fish

fclones membagi operasi menjadi beberapa subperintah, memaksa Anda untuk Pisahkan secara jelas antara saat Anda mendeteksi data duplikat dan saat Anda memodifikasi atau menghapusnya.:

  • kelompok: mengidentifikasi kelompok file yang identik dan menampilkannya ke output standar.
  • menghapusMenghapus file yang berlebihan berdasarkan output yang sebelumnya dihasilkan oleh grup.
  • link: mengganti duplikat dengan "hard link" atau symbolic link.
  • pindah: memindahkan file duplikat ke direktori tujuan yang Anda tentukan.
  • dedupePada sistem file dengan mekanisme copy-on-write, ia melakukan deduplikasi data tanpa menghapus file, dengan berbagi blok internal.

Untuk menemukan file duplikat di direktori saat ini, perintah paling sederhana adalah:

fclones group .

Jika Anda ingin memfilter berdasarkan ukuran, misalnya, hanya file yang lebih besar dari 10 MB, Anda dapat menambahkan:

fclones group -s 10M .

Anda juga dapat membatasi diri pada file-file yang memiliki lebih dari sejumlah salinan tertentuSebagai contoh, lebih dari lima kali penampilan:

fclones group . --rf-over 5

Dan tentu saja, fitur ini mendukung pola penamaan, yang ideal saat bekerja dengan kumpulan foto atau gambar:

fclones group . --name '*.jpg' '*.png'

Setelah Anda memiliki daftar duplikat (misalnya, dalam file bernama duplicates.txt), Anda dapat menerapkan berbagai tindakan. Misalnya, ganti duplikat dengan tautan keras akan:

fclones link <duplicados.txt

Jika Anda lebih menyukai tautan simbolik:

fclones link -s <duplicados.txt

Untuk mengirim semua duplikat ke folder "karantina" lain:

  Panduan Lengkap tentang Kunci SysRq di Linux

fclones move target_dir <duplicados.txt

Dan untuk menghapus secara langsung:

fclones remove <duplicados.txt

Dalam semua kasus ini Anda juga bisa menggabungkan perintah menggunakan pipaContohnya, untuk mengelompokkan dan menghapus secara bersamaan:

fclones group . | fclones remove

Meskipun cara ini berhasil, akan jauh lebih masuk akal untuk menyertakan opsi tersebut. –lari kering untuk melihat apa yang akan terjadi tanpa menyentuh apa pun, misalnya:

fclones group . | fclones remove --dry-run

Mode simulasi itu akan menyelamatkan Anda dari banyak masalah, terutama jika Anda bekerja dengan disk yang berisi data penting.

yadf: Pencari Duplikat Lainnya

yadf (Yet Another Duplicate Finder) adalah alat modern lain yang ditulis dalam Rust untuk menemukan duplikat., dengan sintaks yang cukup bersih dan strategi analisis langkah demi langkah: pertama-tama ia mengelompokkan berdasarkan ukuran, kemudian menghitung hash hanya jika diperlukan, dan akhirnya memastikan kesamaan dengan perbandingan byte demi byte.

Cara penggunaannya sangat mudah. ​​Untuk menemukan file duplikat di direktori saat ini, cukup jalankan perintah berikut:

yadf

Jika Anda ingin membandingkan dua jalur tertentu, misalnya Dokumen dan Gambar, Anda dapat melakukan hal berikut:

yadf ~/Documents ~/Pictures

Ini juga dapat digunakan dengan kedalaman 0 untuk membandingkan file tertentu tanpa harus masuk ke subdirektoriIni berguna ketika Anda mencurigai bahwa dua file tertentu adalah file yang sama:

yadf --depth 0 file1 file2

Untuk membatasi pencarian ke direktori saat ini tanpa menelusuri ke bawah, sesuaikan kedalaman pencarian:

yadf --depth 1

Salah satu keunggulan yadf adalah kemampuannya bekerja sangat baik dengan utilitas lain seperti fd. Misalnya, Anda bisa Pertama, saring direktori atau file berdasarkan nama. lalu berikan daftar tersebut ke yadf:

  • Cari direktori yang mengandung huruf "a" lalu cari duplikatnya tanpa rekursi:
    fd --type d a | yadf --depth 1
  • Cari file yang mengandung huruf "a" dan periksa apakah ada duplikat:
    fd --type f a | yadf

Sedangkan untuk filter, Anda memiliki beberapa pilihan menarik:

  • Duplikat dengan ukuran minimal 100 MB: yadf --min 100M
  • Duplikat di bawah 100 MB: yadf --max 100M
  • Hanya file JPG: yadf --pattern '*.jpg'
  • Berkas yang namanya diawali dengan huruf "g": yadf --regex '^g'
  • Berkas dengan lebih dari 10 salinan: yadf --rfactor over:10
  • Berkas dengan kurang dari 10 salinan: yadf --rfactor under:10
  • Berkas unik (tidak ada duplikat): yadf --rfactor equal:1

Itu juga memungkinkan untuk format Output untuk diintegrasikan ke dalam skrip atau alat lain. Menurut pengujian yang dilakukan oleh penulis sendiri, yadf biasanya sedikit lebih cepat daripada fclones dalam skenario tertentuNamun, disarankan untuk menjalankan benchmark sendiri pada sistem Anda dan dengan data Anda sendiri.

Alat grafis untuk menemukan duplikat di Linux

Jika Anda tidak terbiasa menggunakan terminal, atau jika Anda berurusan dengan koleksi foto yang sangat besar dan ingin melihat pratinjau thumbnail sebelum menghapus apa pun, cara termudah adalah dengan menggunakan... aplikasi dengan antarmuka grafisDalam ekosistem Linux terdapat beberapa yang sangat matang.

FSlint: Antarmuka sederhana dan versi CLI disertakan

FSlint adalah alat andalan untuk menemukan dan membersihkan "lint" (kode sampah yang tidak terpakai) dalam sistem file.: duplikat, direktori kosong, file sementaratautan simbolik yang rusak, biner usang, dan bagian-bagian kecil yang tidak perlu lainnya.

Tersedia di repositori banyak distribusi Linux. Di Ubuntu, misalnya, Anda dapat menginstalnya dari Pusat Perangkat Lunak atau melalui terminal dengan perintah:

sudo apt-get install fslint

Saat Anda membuka aplikasi grafis, Anda akan melihat bahwa panel "Duplikat" terpilih secara default dan Anda direktori pribadi sebagai jalur pencarian awalCukup klik "Cari" agar FSlint memindai folder dan menampilkan daftar file duplikat.

Dari daftar tersebut, Anda dapat memilih item mana yang ingin dihapus, digabungkan, atau diproses lebih lanjut. Klik dua kali memungkinkan Anda untuk... pratinjau file sebelum menghapusnya, sesuatu yang sangat berguna untuk menyimpan foto dan dokumen penting.

FSlint juga menyertakan komponen konsol yang, bagaimanapun, tidak dirancang untuk dipanggil langsung sebagai biner di PATH, melainkan sebagai sebuah naskah melalui rute mereka sendiri:

/usr/share/fslint/fslint/fslint carpeta

Perintah ini hanya menampilkan daftar duplikat dan menyerahkan tindakan selanjutnya (menghapus, memindahkan, dll.) kepada Anda. Jika Anda perlu melihat semua opsi, Anda selalu dapat melihat bantuan:

/usr/share/fslint/fslint/fslint --help
man fslint

dupeGuru: multiplatform, cepat, dan cukup aman

dupeGuru adalah aplikasi grafis terkenal lainnya untuk menemukan file duplikat di Linux. Windows dan macOSFitur ini dapat memindai berdasarkan nama dan konten, serta mendukung algoritma pencocokan samar (fuzzy matching) yang mendeteksi nama-nama serupa, ideal ketika Anda memiliki ribuan lagu atau foto dengan nama yang hampir identik.

Antarmuka program ini cukup jelas: Anda memilih satu atau lebih folder untuk dipindai, memilih mode (file umum, musik, atau gambar), dan membiarkannya bekerja. Setelah selesai, program akan menampilkan hasilnya. Grup duplikat tempat Anda memutuskan apa yang akan disimpan dan apa yang akan dihapus. mencentang kotak.

Di Debian, Ubuntu dan turunannya, Anda dapat menginstalnya dari PPA yang dikelola oleh proyek tersebut:

sudo add-apt-repository ppa:dupeguru/ppa
sudo apt-get update
sudo apt-get install dupeguru

Di Arch Linux, tersedia di repositori distribusi tersebut:

sudo pacman -S dupeguru

Salah satu keunggulan utama dupeGuru adalah bahwa Ini dirancang untuk meminimalkan risiko menghapus hal-hal yang seharusnya tidak dihapus.Namun, seperti biasa, keputusan akhir tetap ada di tangan Anda. Itulah mengapa tetap penting untuk memiliki cadangan dan meninjau dengan cermat apa yang Anda pilih.

Czkawka dan Krokiet: mesin modern dengan dua antarmuka berbeda

Czkawka adalah aplikasi modern yang ditulis dalam Rust yang menemukan dan menghapus file duplikat, file kosong, file sementara, file berukuran besar, dan item lain yang tidak perlu.Aplikasi ini bersifat lintas platform dan tujuan utamanya adalah untuk menjadi cepat dan efisien.

  Cara Membuat Skrip Bash untuk Windows dengan Subsistem Windows untuk Linux

Secara internal, mobil ini menggunakan mesin yang sama dengan Krokiet, antarmuka grafis lain yang memilih desain yang lebih ringan dan lebih cepat.Czkawka mengandalkan GTK dan menawarkan antarmuka yang lebih lengkap, sementara Krokiet menggunakan Slint dan menyederhanakan presentasi sampai batas tertentu, dengan imbalan konsumsi sumber daya yang lebih rendah.

Dalam kedua kasus tersebut, alur kerjanya mirip dengan yang telah kita lihat pada alat grafis lainnya: Anda memilih folder yang akan dipindai, meluncurkan pencarian duplikat, dan kemudian Anda bekerja dengan daftar yang dikelompokkan di mana Anda menandai apa yang akan disimpan dan apa yang akan dihapus.Ini jauh lebih praktis daripada mengingat opsi konsol jika Anda hanya ingin membersihkan sesekali.

Jika Anda mencari sesuatu yang aktif dan dengan pengembangan yang cukup dinamis, Czkawka adalah salah satu pilihan yang paling direkomendasikan; jika Anda lebih menyukai yang ringan, Krokiet sangat cocok untuk komputer dengan spesifikasi sederhana.

fclones-gui: antarmuka sederhana untuk fclones

Bagi mereka yang sudah mencoba fclones tetapi lebih memilih untuk tidak repot dengan baris perintah, ada fclones-gui, sebuah antarmuka grafis yang sangat sederhana yang memanfaatkan mesin fclones.Meskipun tidak menampilkan semua opsi lanjutan, namun menampilkan opsi yang paling umum.

Cara kerjanya sederhana: Anda memilih direktori yang ingin dianalisis, menyesuaikan opsi pencarian dasar, dan mengklik tombol untuk memulai. temukan duplikatSetelah selesai, Anda dapat memilih file mana yang akan diproses dan tindakan apa yang akan dilakukan (hapus, pindahkan, tautkan, dll.).

Satu-satunya kekurangan adalah laju pengembangan fclones-gui tampaknya lebih lambat daripada alternatif grafis lainnya seperti Czkawka atau Krokiet, jadi jika Anda sangat menghargai pemeliharaan berkelanjutan, Anda mungkin lebih memilih yang terakhir. Meskipun demikian, jika fclones-gui memenuhi kebutuhan Anda, itu adalah pilihan yang sangat valid.

Solusi "buatan tangan" menggunakan fungsi find, sort, uniq, dan md5sum.

Jika Anda suka mengerjakan sesuatu dengan tangan atau tidak ingin bergantung pada alat tambahan, Anda juga bisa menggabungkan utilitas klasik dari Unix seperti find, md5sum, sort, dan uniq untuk menemukan file duplikat.Ide dasarnya adalah menghasilkan hash untuk setiap file, mengurutkan berdasarkan hash tersebut, lalu menyimpan entri yang berulang.

Sebagai contoh, Anda dapat melakukan iterasi melalui direktori beranda Anda, menghasilkan checksum MD5 untuk setiap file dan menulis hasilnya ke dalam sebuah file:

find /home/usuario -type f -print0 \
| xargs -0 md5sum \
| sort > /tmp/archivos-duplicados.txt

Kemudian, dengan menggunakan sort dan uniq, Anda dapat menemukan Hash yang muncul lebih dari sekali menunjukkan kelompok file dengan konten yang sama.Dari situ, tinggal memproses daftar tersebut untuk memutuskan apa yang harus dilakukan dengan setiap rute.

Salah satu detail yang menarik adalah, jika Anda melakukan echo Dari hash MD5, Anda akan melihat bahwa Tampaknya ukurannya 33 byte, bukan 32 byte.Itu karena `echo` menambahkan jeda baris di akhir, jadi untuk benar-benar mengukur ukurannya, Anda harus melakukannya tanpa baris baru tersebut (misalnya dengan printf).

Pendekatan "buatan tangan" ini tidak menawarkan kemudahan atau fitur canggih dari alat-alat khusus, tetapi sangat berguna untuk... memahami bagaimana banyak detektor duplikat bekerja secara internal dan untuk membuat skrip yang sangat spesifik yang disesuaikan dengan kebutuhan Anda.

Rekomendasi penggunaan dan praktik terbaik saat menghapus duplikat

Terlepas dari alat yang Anda pilih, ada sejumlah panduan yang layak diikuti untuk Hindari kejutan dengan menghapus file yang sebenarnya Anda butuhkan.:

  • Kerjakan terlebih dahulu pada direktori uji atau salinan data Anda sampai Anda merasa nyaman dengan alat tersebut.
  • Jika tersedia, gunakan mode tersebut. uji coba atau simulasi (fclones, rdfind, dll.) sebelum mengeksekusi tindakan yang merusak.
  • Jika memungkinkan, prioritaskan terlebih dahulu Pindahkan file duplikat ke folder karantina. alih-alih menghapusnya secara langsung.
  • Hindari penghapusan otomatis dengan opsi seperti –noprompt atau -N Jika Anda belum benar-benar memeriksa cara kerjanya, mereka bisa sangat agresif.
  • Berhati-hatilah dengan tautan simbolik (-s, –symlinks)karena hal itu dapat menyebabkan Anda akhirnya menghapus file di luar struktur direktori yang Anda kira sedang Anda bersihkan.
  • Selalu simpan file cadangan terkini sebelum melakukan pembersihan besar-besaran pada disk yang berisi data penting.

Mencari dan menghapus file duplikat di Linux tidaklah rumit jika Anda mengetahui alat yang tepat: mulai dari alat klasik seperti fdupes, rdfind, dan FSlint hingga pilihan yang lebih modern seperti fclones, yadf, Czkawka, Krokiet, atau dupeGuru, Anda memiliki banyak pilihan yang dapat Anda gunakan. Bebaskan ruang penyimpanan, atur folder Anda, dan kurangi kekacauan akibat salinan duplikat.Pilih konsol atau antarmuka grafis mana pun yang lebih nyaman bagi Anda, gabungkan filter ukuran dan pola penamaan untuk menyempurnakan hasilnya, dan yang terpenting, luangkan waktu untuk meninjau apa yang akan Anda hapus; dengan sedikit kehati-hatian, sistem Anda akan bernapas lebih lega tanpa data penting Anda berisiko secara tidak perlu.