解题思路
一、利用「存储空间分析器」
这是个群晖的工具,它可以帮我们找到所有重复的文件,注意,这里找的不光是文件名重复,而是文件内容的重复。
找出来之后,得到一份「csv」文件。
二、运用「一键清理重复文件工具」
这种方法唯一的缺点就是:一次只能分析 5000 个文件。
如果重复的文件比较多,那就需要多弄几次。
取得重复文件分析报告
1、在「套件中心」中安装打开「存储空间分析器」。
2、新建报告配置文件,名字随便,最大报告数5000。
3、选择报告项目中只选择「潜在的重复文件」。
[wm_collapse title="阅读全文"]
4、高级设置里,勾选「忽略文件名」和「忽略修改时间」,然后点完成。
5、任务名称-右键选择「立即生成报告」。
6、等「成功」之后,选择「查看历史报告」。
这就是分析一次重复文件的步骤,实测第一次比较慢,后面越来越快,最后一分钟左右就可以搞定。
上传文件
1、下载历史报告
2、上传csv报告文件&「NAS 重复文件脚本」
把解压之后的 csv 文件上传到 NAS,这里推荐用 File Station 的方式,注意 csv 文件名一定要改成「duplicate_file.csv」。
3、复制脚本路径
在脚本文件repeat_file_remove.py
右键点一下属性,复制下这个路径留着用。
/volume1/docker/临时中转/repeat_file_remove.py
跑脚本
1、远程连接 ssh 到群晖
2、root模式
sudo -i
3、进入脚本所在目录
cd /volume1/docker/临时中转/(你路径中除了repeat_file_remove.py的部分)
4、运行脚本
python3 repeat_file_remove.py
接着 按 Y,回车 ,开始删除。
接着它会飞快的刷屏,跑完之后,就删除完了。
5、你可以在存储空间分析器里,点小箭头,查看「分析此报告内容」
就能看到同一份文件只留了一份,其他的都被删除了。
6、重复
接着重复生成csv报告
到最后一步,就可以一直删除全部重复文件了。实际操作只需 生成报告,上传,跑脚本 ,很快的。
脚本下载
此处内容已经被作者隐藏,请输入验证码查看内容请关注本站微信公众号,回复“验证码”,获取验证码。在微信里搜索“TechBars”或者“TechBars”或者微信扫描右侧二维码都可以关注本站微信公众号。
[/wm_collapse]
本文共 527 个字数,平均阅读时长 ≈ 2分钟
感谢分享,找了很多都没找到可以用的
LZ牛逼
好东西
等着用呢
好东西,就得分享
非常非常感谢!
感谢分享
good
感谢分享
LZ牛逼
感谢分享,这个感觉靠谱
跟大神学命令,不知道好使不
666
希望好用,谢谢
谢谢
谢谢分享
为楼主点赞,感谢楼主分享
测测
非常有用,感谢
正好我来了
感谢分享,找了很多都没找到可以用的
请问请问
感谢分享,好东西
感谢分享,
你blog右边的笑话可以的,哈哈
有用
LZ牛逼
感谢分享,我想试试
谢谢分享
感谢分享
taibangl
出现在C
说点什么吧 楼主牛掰
shishishishsihsi
不错
顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶顶