AI摘要:使用NAS存储空间分析器和一键清理重复文件工具批量清除重复文件,通过生成CSV报告和运行脚本实现高效删除。
解题思路
一、利用「存储空间分析器」
这是个群晖的工具,它可以帮我们找到所有重复的文件,注意,这里找的不光是文件名重复,而是文件内容的重复。
找出来之后,得到一份「csv」文件。
二、运用「一键清理重复文件工具」
这种方法唯一的缺点就是:一次只能分析 5000 个文件。
如果重复的文件比较多,那就需要多弄几次。
取得重复文件分析报告
1、在「套件中心」中安装打开「存储空间分析器」。
2、新建报告配置文件,名字随便,最大报告数5000。
3、选择报告项目中只选择「潜在的重复文件」。
[wm_collapse title="阅读全文"]
4、高级设置里,勾选「忽略文件名」和「忽略修改时间」,然后点完成。
5、任务名称-右键选择「立即生成报告」。
6、等「成功」之后,选择「查看历史报告」。
这就是分析一次重复文件的步骤,实测第一次比较慢,后面越来越快,最后一分钟左右就可以搞定。
上传文件
1、下载历史报告
2、上传csv报告文件&「NAS 重复文件脚本」
把解压之后的 csv 文件上传到 NAS,这里推荐用 File Station 的方式,注意 csv 文件名一定要改成「duplicate_file.csv」。
3、复制脚本路径
在脚本文件repeat_file_remove.py
右键点一下属性,复制下这个路径留着用。
/volume1/docker/临时中转/repeat_file_remove.py
跑脚本
1、远程连接 ssh 到群晖
2、root模式
sudo -i
3、进入脚本所在目录
cd /volume1/docker/临时中转/(你路径中除了repeat_file_remove.py的部分)
4、运行脚本
python3 repeat_file_remove.py
接着 按 Y,回车 ,开始删除。
接着它会飞快的刷屏,跑完之后,就删除完了。
5、你可以在存储空间分析器里,点小箭头,查看「分析此报告内容」
就能看到同一份文件只留了一份,其他的都被删除了。
6、重复
接着重复生成csv报告
到最后一步,就可以一直删除全部重复文件了。实际操作只需 生成报告,上传,跑脚本 ,很快的。
脚本下载

[/wm_collapse]
本文共 527 个字数,平均阅读时长 ≈ 2分钟
good
感谢分享
非常非常感谢!
好东西,就得分享
等着用呢
好东西
LZ牛逼
感谢分享,找了很多都没找到可以用的