举头问天 发表于 2013-7-1 09:35:58

网站批量复制神器

无差别网站复制神器.
快速提制,对于想快速搞一个网站来说的话,还是可以的.
全HTML,替换一下内容,放点东西进去,就可以实现伪原创了.
不错的.
唯一有的缺陷就是刚弄下来的网站和原站是一模一样的.
有用的,下载后给加广告币呀



巴鲁 发表于 2013-7-1 09:59:03

:(都不介绍下具体什么情况啊

sadffg 发表于 2013-7-1 10:56:42

很古老的软件了吧:L

fy188 发表于 2013-7-1 11:00:25

给个图啊

freshrich 发表于 2013-7-1 11:15:20

正是我想要找的.;P

termjoy 发表于 2013-7-1 12:28:39

。。。。复制html网站还用工具啊?wget就搞定了。。然后editplus替换一下相关内容就好了

举头问天 发表于 2013-7-1 12:33:44

termjoy 发表于 2013-7-1 12:28 static/image/common/back.gif
。。。。复制html网站还用工具啊?wget就搞定了。。然后editplus替换一下相关内容就好了 ...

不是不是,任何网站都可以.那是复制HTML网站.提制过来的内容是HTML
而且,你不能一直WGET一百万次吧.

素鱼 发表于 2013-7-1 12:56:10

我想要找的............

xee 发表于 2013-7-1 19:38:43

wget命令加参数,可以下载整个网站,它可以沿着链接一直get个不停,直到停电断网

举头问天 发表于 2013-7-1 19:46:40

xee 发表于 2013-7-1 19:38 static/image/common/back.gif
wget命令加参数,可以下载整个网站,它可以沿着链接一直get个不停,直到停电断网 ...

能保持网站结构么?能抓取一个网站的所有链接么?能抓取网站所有的页面么

xee 发表于 2013-7-1 19:52:54

举头问天 发表于 2013-7-1 19:46 static/image/common/back.gif
能保持网站结构么?能抓取一个网站的所有链接么?能抓取网站所有的页面么
wget可以以递归的方式下载整站,并可以将下载的页面中的链接转换为本地链接。

wget加上参数之后,即可成为相当强大的下载工具。

wget -r -p -np -k http://xxx.com/abc/

-r, --recursive(递归) specify recursive download.(指定递归下载)
-k, --convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p, --page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np, --no-parent(不追溯至父级) don't ascend to the parent directory.

另外断点续传用-nc参数 日志 用-o参数

更具体详细的内容可以参考其manpage

举头问天 发表于 2013-7-1 22:23:20

碰到LINUX强人了...
找到解决问题的另一种办法了.;P

termjoy 发表于 2013-7-1 22:28:01

只要robots.txt里边没禁止抓取的html页面。wget一直会按照链接去抓取的。。。自己找个站实验一下就晓得了

举头问天 发表于 2013-7-1 22:33:28

termjoy 发表于 2013-7-1 22:28 static/image/common/back.gif
只要robots.txt里边没禁止抓取的html页面。wget一直会按照链接去抓取的。。。自己找个站实验一下就晓得了 ...

ROBOTX.TXT,不要管它,不就得了.

非常小黑 发表于 2013-7-10 00:17:30

小偷程序吧?
页: [1] 2
查看完整版本: 网站批量复制神器