黑基网 首页 资讯 知识汇 查看内容

如果你看到一个特别好的网站,想完整拷贝到本地怎么办?

2017-4-6 11:14| 投稿: lofor| 查看: 1197| 评论: 0|来自: 互联网

摘要: 现在的网站绝大多数是动态的,就是不同用户看到的效果是不一样的,用户请求的数据都是后台程序随时生成的。所以,除非你拿到整个网站的源代码,否则不能把网站整个的一点不差的拷贝为自己的。我这里分享一个方式,可 ...

现在的网站绝大多数是动态的,就是不同用户看到的效果是不一样的,用户请求的数据都是后台程序随时生成的。所以,除非你拿到整个网站的源代码,否则不能把网站整个的一点不差的拷贝为自己的。

我这里分享一个方式,可以把你在浏览器看到的所有效果和页面克隆下来,自动保存为一个网站。

工具:Teleport Ultra

我这里把mybatis官网的api拷贝到了本地,然后做了个.chm的帮助文档:

正在拷贝,拷贝完保存在我的E盘,看下效果:

这里下载的时候忘记设置编码格式了,乱码了(乱码的本质就是输入流和输出流的编码格式不一致),哈哈。不改了,等会重新下。

教程:安装软件,大概1M大小。安装完成运行,新建项目如下图,你可以选择拷贝整个网站,或者在整个网站内下载某一类型的文件。

输入网址,自动探查深度(就是迭代查找多少层页面)

然后选择下载后保存的路径,静静等待就行了。

其本质就是一个类似浏览器的请求,把整个网站请求到的数据组装成一个拷贝站。拷贝到本地的都是静态HTML页面。如果网站需要登录的,那只能拷贝到你登陆后能看到的页面。这也是符合道德规范的,只拷贝站主想让你看到的。开发中很多的API文档我都是这么制作的,放到u盘方便查询。

1

鲜花

握手

雷人

路过

鸡蛋

刚表态过的朋友 (1 人)

相关阅读

最新评论

返回顶部