网络爬虫及其相关
网络爬虫
网络爬虫(web crawler),以前经常称之为网络蜘蛛(spider),是按照一定的规则自动浏览万维网并获取信息的机器人程序(或脚本),曾经被广泛的应用于互联网搜索引擎。使用过互联网和浏览器的人都知道,网页中除了供用户阅读的文字信息之外,还包含一些超链接。网络爬虫系统正是通过网页中的超链接信息不断获得网络上的其它页面。正因如此,网络数据采集的过程就像一个爬虫或者蜘蛛在网络上漫游,所以才被形象的称为网络爬虫或者网络蜘蛛。
爬虫的应用领域
搜索引擎新闻聚合社交应用舆情监控(政府使用)行业数据
合法性
爬虫的合法性
爬虫领域目前还属于拓荒阶段,虽然互联网世界已经通过自己的游戏规则建立起一定的道德规范(Robots协议,全称是“网络爬虫排除标准”),但法律部分还在建立和完善中,也就是说,现在这个领域暂时还是灰色地带。“法不禁止即为许可”,如果爬虫就像浏览器一样获取的是前端显示的数据(网页上的公开信息)而不是网站后台的私密敏感信息,就不太担心法律法规的约束,因为目前大数据产业链的发展速度远远超过了法律的完善程度。在爬取网站的时候,需要限制自己的爬虫遵守Robots协议,同时控制网络爬虫程序的抓取数据的速度;在使用数据的时候,必须要尊重网站的知识产权(从Web 2.0时代开始,虽然Web上的数据很多都是由用户提供的,但是网站平台是投入了运营成本的,当用户在注册和发布内容时,平台通常就已经获得了对数据的所有权、使用权和分发权)。如果违反了这些规定,在打官司的时候败诉几率相当高。
Robots.txt文件
大多数网站都会定义robots.txt文件,下面以的robots.txt文件为例,看看该网站对爬虫有哪些限制。 浏览器输入
www.csdn.net/robots.txt
就会出现如下内容
User-agent: * Disallow: /scripts Disallow: /public Disallow: /css/ Disallow: /images/ Disallow: /content/ Disallow: /ui/ Disallow: /js/ Disallow: /scripts/ Disallow: /article_preview.html* Disallow: /tag/ Sitemap: http://www.csdn.net/article/sitemap.txt
使用robots.txt可以查看要爬取的网页对爬虫有有哪些限制
相关工具
2. POSTMAN
3. HTTPie
$ http
--header http:
HTTP/
1.1 200 OK
Accept
-Ranges:
bytes
Cache-Control:
private,
max-age=600
Connection: Keep
-Alive
Content
-Encoding: gzip
Content
-Language: zh
-CN
Content
-Length:
14403
Content
-Type: text/html
Date: Sun,
27 May
2018 15:
38:
25 GMT
ETag:
"e6ec-56d3032d70a32-gzip"
Expires: Sun,
27 May
2018 15:
48:
25 GMT
Keep
-Alive: timeout
=5,
max=100
Last
-Modified: Sun,
27 May
2018 13:
44:
22 GMT
Server: VWebServer
Vary: User
-Agent,Accept
-Encoding
X
-Frame-Options: SAMEORIGIN
4. BuiltWith:识别网站使用的技术
import builtwith
builtwith.parse(url)
5. python-whois:查询网站的所有者
import whois
whois.whois(域名url)
6. robotparser:解析robots.txt的工具
>>> from urllib
import robotparser
>>> parser = robotparser.RobotFileParser()
>>> parser.set_url(
'https://www.taobao.com/robots.txt')
>>> parser.read()
>>> parser.can_fetch(
'Hellokitty',
'http://www.taobao.com/article')
False
>>> parser.can_fetch(
'Baiduspider',
'http://www.taobao.com/article')
True
>>> parser.can_fetch(
'Baiduspider',
'http://www.taobao.com/product')
False
一个简单的爬虫
一个基本的爬虫通常分为数据采集(网页下载)、数据处理(网页解析)和数据存储(将有用的信息持久化)三个部分的内容,当然更为高级的爬虫在数据采集和处理时会使用并发编程或分布式技术,其中可能还包括调度器和后台管理程序(监控爬虫的工作状态以及检查数据抓取的结果)。
设定抓取目标(种子页面)并获取网页。当服务器无法访问时,设置重试次数。在需要的时候设置用户代理(否则无法访问页面)。对获取的页面进行必要的解码操作。通过正则表达式获取页面中的链接。对链接进行进一步的处理(获取页面并重复上面的动作)。将有用的信息进行持久化(以备后续的处理)。