4、高级设置里,勾选「忽略文件名」和「忽略修改时间」,然后点完成。

5、任务名称-右键选择「立即生成报告」。

6、等「成功」之后,选择「查看历史报告」。

这就是分析一次重复文件的步骤,实测第一次比较慢,后面越来越快,最后一分钟左右就可以搞定。
上传文件
1、下载历史报告

2、上传csv报告文件&「NAS 重复文件脚本」
把解压之后的 csv 文件上传到 NAS,这里推荐用 File Station 的方式,注意 csv 文件名一定要改成「duplicate_file.csv」。

3、复制脚本路径
在脚本文件repeat_file_remove.py
右键点一下属性,复制下这个路径留着用。

/volume1/docker/临时中转/repeat_file_remove.py
跑脚本
1、远程连接 ssh 到群晖

2、root模式
sudo -i
3、进入脚本所在目录
cd /volume1/docker/临时中转/(你路径中除了repeat_file_remove.py的部分)
4、运行脚本
python3 repeat_file_remove.py
接着 按 Y,回车 ,开始删除。
接着它会飞快的刷屏,跑完之后,就删除完了。

5、你可以在存储空间分析器里,点小箭头,查看「分析此报告内容」

就能看到同一份文件只留了一份,其他的都被删除了。

6、重复
接着重复生成csv报告
到最后一步,就可以一直删除全部重复文件了。实际操作只需 生成报告,上传,跑脚本 ,很快的。
脚本下载

此处内容已经被作者无情的隐藏,请输入验证码查看内容
请关注Techbars官方微信公众号,回复关键字“3147”,获取验证码。注:用手机微信扫描右侧二维码或微信搜索“Techbars”即可关注哦!
感谢分享,找了很多都没找到可以用的
LZ牛逼
好东西
等着用呢
好东西,就得分享
非常非常感谢!
感谢分享
good
感谢分享
LZ牛逼
感谢分享,这个感觉靠谱
跟大神学命令,不知道好使不
666
希望好用,谢谢
谢谢
谢谢分享
为楼主点赞,感谢楼主分享
测测
非常有用,感谢
正好我来了
感谢分享,找了很多都没找到可以用的
请问请问
感谢分享,好东西
感谢分享,
你blog右边的笑话可以的,哈哈
有用
LZ牛逼
感谢分享,我想试试
谢谢分享
感谢分享
taibangl
出现在C
说点什么吧 楼主牛掰
shishishishsihsi
不错
顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶