大佬们,有没有现成的工具把一个站点所有的页面全部copy?
一个站点所有的内容html , css , img全部采集到本地的工具 ... 全自动化的那种.. 最后的效果就是处理完之后,本地打开和原站点完全一模一样的站...... wget -m -p https://www.domain.com chrome 右键另存为 :lol xx19941215 发表于 2020-12-11 14:07chrome 右键另存为
em这个知道啊 :lol,我就是想,只给一个主页url设置到工具中,然后工具从主页进去,自动判断跳转页面,无限的循环去跳转页面,把每一个页面所有内容都存在本地,如果有重复的页面就自动去重,到时候我觉得可以停止了,就让他停止。这种 :lol xx19941215 发表于 2020-12-11 14:07
chrome 右键另存为
卧槽,我生份证出生日期就是19941215,这是缘分啊,我的天 ironman2020666 发表于 2020-12-11 14:32
卧槽,我生份证出生日期就是19941215,这是缘分啊,我的天
卧槽我身份证也是呢 ironman2020666 发表于 2020-12-11 14:32
卧槽,我生份证出生日期就是19941215,这是缘分啊,我的天
额,我的刚好顺序颠倒了一下。
19941125 万刀门 发表于 2020-12-11 16:01
wget -m -p https://www.domain.com
谢谢 .才知道这个命令.. 最好还是右键另存为。。。
其实主要还是JS, 很多功能都是JS实现的
页:
[1]