Scrapy 教程

original icon
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.knowledgedict.com/tutorial/scrapy-spiders.html

Scrapy 爬虫(Spider)


Spider 类定义了如何爬取某个(或某些)网站。包括了爬取的动作(例如,是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取 item)。换句话说,Spider 就是您定义爬取的动作及分析某个网页(或者是有些网页)的地方。

对 spider 来说,爬取的循环类似下文:

  1. 以初始的 URL 初始化 Request,并设置回调函数。当该 request 下载完毕并返回时,将生成 response,并作为参数传给该回调函数;spider 中初始的 request 是通过调用 start_requests() 来获取的。start_requests() 读取 start_urls 中的 URL, 并以 parse 为回调函数生成 Request;
  2. 在回调函数内分析返回的(网页)内容,返回 Item 对象、dict、Request 或者一个包括三者的可迭代容器。返回的 Request 对象之后会经过 Scrapy 处理,下载相应的内容,并调用设置的 callback 函数(函数可相同);
  3. 在回调函数内,可以使用选择器(Selectors)(也可以使用 BeautifulSoup, lxml 或者您想用的任何解析器)来分析网页内容,并根据分析的数据生成 item;
  4. 最后,由 spider 返回的 item 将被存到数据库(由某些 Item Pipeline 处理)或使用 Feed exports 存入到文件中。

虽然该循环对任何类型的 spider 都(多少)适用,但 Scrapy 仍然为了不同的需求提供了多种默认 spider。

scrapy.Spider

class scrapy.spiders.Spider

Spider 是最简单的 spider。每个其他的 spider 必须继承自该类(包括 Scrapy 自带的其他 spider 以及您自己编写的 spider)。Spider 并没有提供什么特殊的功能。其仅仅提供了 start_requests() 的默认实现,读取并请求 spider 属性中的 start_urls,并根据返回的结果(resulting responses)调用 spider 的 parse 方法。

属性/函数 描述
name 定义 spider 名字的字符串(string)。spider 的名字定义了 Scrapy 如何定位(并初始化)spider,所以其必须是唯一的。不过您可以生成多个相同的 spider 实例(instance),这没有任何限制。name 是 spider 最重要的属性,而且是必须的。如果该 spider 爬取单个网站(single domain),一个常见的做法是以该网站(domain)(加或不加后缀)来命名 spider。例如,如果 spider 爬取 mywebsite.com,该 spider 通常会被命名为 mywebsite。
allowed_domains 可选。包含了 spider 允许爬取的域名列表。当 OffsiteMiddleware 启用时,域名不在列表中的 URL 不会被跟进。
start_urls URL 列表。当没有指定特定的 URL 时,spider 将从该列表中开始进行爬取。因此,第一个被获取到的页面的 URL 将是该列表之一。后续的 URL 将会从获取到的数据中提取。
custom_settings 该设置是一个 dict。当启动 spider 时,该设置将会覆盖项目级的设置。由于设置必须在初始化(instantiation)前被更新,所以该属性必须定义为 class 属性。
crawler 该属性在初始化 class 后,由类方法 from_crawler() 设置,并且链接了本 spider 实例对应的 Crawler 对象。Crawler 包含了很多项目中的组件,作为单一的入口点(例如插件、中间件、信号管理器等)。
settings 这些是运行一个 spider 的设置。
logger 它是用来发送日志消息的 Python 记录器。
from_crawler() 它是由 spider 创建的一个类方法
start_requests()

该方法必须返回一个可迭代对象(iterable)。该对象包含了 spider 用于爬取的第一个 Request。

当 spider 启动爬取并且未指定 URL 时,该方法被调用。当指定了 URL 时,make_requests_from_url() 将被调用来创建 Request 对象。该方法仅仅会被 Scrapy 调用一次,因此您可以将其实现为生成器。

该方法的默认实现是使用 start_urls 的 url 生成 Request。

如果您想要修改最初爬取某个网站的 Request 对象,您可以重写(override)该方法。

make_requests_from_url()

该方法接受一个 URL 并返回用于爬取的 Request 对象。该方法在初始化 request 时被 start_requests() 调用,也被用于转化 url 为 request。

默认未被覆写(overridden)的情况下,该方法返回的 Request 对象中,parse() 作为回调函数,dont_filter 参数也被设置为开启。

parse()

当 response 没有指定回调函数时,该方法是 Scrapy 处理下载的 response 的默认方法。

parse 负责处理 response 并返回处理的数据以及或跟进的 URL。

Spider 对其他的 Request 的回调函数也有相同的要求。该方法及其他的 Request 回调函数必须返回一个包含 Request、dict 或 Item 的可迭代的对象。

log() 使用 scrapy.log.msg() 方法记录 message。log 中自动带上该 spider 的 name 属性。
closed() 当 spider 关闭时,该函数被调用。该方法提供了一个替代调用 signals.connect() 来监听 spider_closed 信号的快捷方式。

CrawlSpider

class scrapy.spiders.CrawlSpider

爬取一般网站常用的 spider。其定义了一些规则(rule)来提供跟进 link 的方便的机制。也许该 spider 并不是完全适合您的特定网站或项目,但其对很多情况都适用。因此您可以以其为起点,根据需求修改部分方法。当然您也可以实现自己的 spider。

除了从 Spider 继承过来的(您必须提供的)属性外,其提供了一个新的属性:

属性/函数 描述
rules 一个包含一个(或多个)Rule 对象的元祖集合。每个 rule 对爬取网站的动作定义了特定表现。如果多个 rule 匹配了相同的链接,则根据他们在本属性中被定义的顺序,第一个会被使用。
parse_start_url 当 start_url 的请求返回时,该方法被调用。该方法分析最初的返回值并必须返回一个 Item 对象或者一个 Request 对象或者一个可迭代的包含二者对象。

爬取规则(Crawling rules)

class Rule(object):

    def __init__(self, link_extractor, callback=None, cb_kwargs=None, follow=None, process_links=None, process_request=identity):
        ...
属性/函数 描述
link_extractor 一个 LinkExtractor 对象。其定义了如何从爬取到的页面提取链接。
callback

一个 callable 或 string(该 spider 中同名的函数将会被调用)。从 link_extractor 中每获取到链接时将会调用该函数。该回调函数接受一个 response 作为其第一个参数,并返回一个包含 Item 以及(或)Request 对象(或者这两者的子类)的列表。

当编写爬虫规则时,请避免使用 parse 作为回调函数。由于 CrawlSpider 使用 parse 方法来实现其逻辑,如果您覆盖了 parse 方法,crawl spider 将会运行失败。

cb_kwargs 包含传递给回调函数的参数的字典。
follow 一个布尔(boolean)值,指定了根据该规则从 response 提取的链接是否需要跟进。如果 callbackNonefollow 默认设置为 True,否则默认为 False
process_links 一个 callable 或 string(该 spider 中同名的函数将会被调用)。 从 link_extractor 中获取到链接列表时将会调用该函数。该方法主要用来过滤。
process_request 一个 callable 或 string(该 spider 中同名的函数将会被调用)。该规则提取到每个 request 时都会调用该函数。该函数必须返回一个 request 或者 None

LinkExtractor 类

该类是链接提取器,其唯一目的是从 scrapy.http.Response 最终将跟随的网页(对象)提取链接的对象。

你可以创建自己的自定义链接提取器,以满足自身的特定需求。

from .lxmlhtml import LxmlLinkExtractor as LinkExtractor

LinkExtractor 类的原名是 LxmlLinkExtractor,继承了 FilteringLinkExtractor

class LxmlLinkExtractor(FilteringLinkExtractor):

    def __init__(self, allow=(), deny=(), allow_domains=(), deny_domains=(), restrict_xpaths=(),
                 tags=('a', 'area'), attrs=('href',), canonicalize=False,
                 unique=True, process_value=None, deny_extensions=None, restrict_css=(),
                 strip=True):

LxmlLinkExtractor 是推荐的链接提取器,其基于强大的网页提取库 lxml。

类的相关参数如下:

  • allow(正则表达式(或列表)) - 一个单一的正则表达式(或正则表达式列表),(绝对)urls 必须匹配才能提取。如果没有给出(或为空),它将匹配所有链接。
  • deny(正则表达式或正则表达式列表) - 一个正则表达式(或正则表达式列表),(绝对)urls 必须匹配才能排除(即不提取)。它优先于 allow 参数。如果没有给出(或为空),它不会排除任何链接。
  • allow_domains(str 或 list) - 单个值或包含将被考虑用于提取链接的域的字符串列表。
  • deny_domains(str 或 list) - 单个值或包含不会被考虑用于提取链接的域的字符串列表。
  • deny_extensions(list) - 包含在提取链接时,应该忽略的扩展的单个值或字符串列表。如果没有给出,它将默认为 IGNORED_EXTENSIONSscrapy.linkextractors 包中定义的列表。
  • restrict_xpaths(str 或 list) - 是一个 XPath(或 XPath 的列表),它定义响应中应提取链接的区域。如果给出,只有那些 XPath 选择的文本将被扫描链接。参见下面的例子。
  • restrict_css(str 或 list) - 一个 CSS 选择器(或选择器列表),用于定义响应中应提取链接的区域。类似于 restrict_xpaths 参数。
  • tags(str 或 list) - 提取链接时指定的标签集合。默认为 ('a', 'area')
  • attrs(list) - 在查找要提取的链接时,应该考虑的属性或属性列表(仅适用于参数中指定的那些标签 tags)。默认为 ('href',)
  • canonicalize(boolean) - 规范化每个提取的 url(使用 w3lib.url.canonicalize_url)。默认为 False
  • unique(boolean) - 是否开启去重,即对提取的链接是否应用重复过滤。默认为 True
  • strip(boolean) - 是否从提取的属性值中把地址前后多余的空格删除。默认为 True
  • process_value(callable) - 这个作用比较强大了,他接受一个函数,可以对提取到的内容进行自定义处理,默认为 None,即不指定处理函数,相当于 lambda x: x

针对 process_value 参数的相关示例如下:

要针对如下标签提取链接:

<a href="javascript:goToPage('../other/page.html'); return false">Link text</a>

您可以使用如下自定义函数:

def process_value(value):
    m = re.search("javascript:goToPage\('(.*?)'", value)
    if m:
        return m.group(1)

CrawlSpider 示例

接下来给出配合 rule 使用 CrawlSpider 的例子:

import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor

class MySpider(CrawlSpider):

    name = 'example.com'
    allowed_domains = ['example.com']
    start_urls = ['http://www.example.com']

    rules = (
        # 提取匹配 'category.php' (但不匹配 'subsection.php') 的链接并跟进链接(没有callback意味着follow默认为True)
        Rule(LinkExtractor(allow=('category\.php', ), deny=('subsection\.php', ))),

        # 提取匹配 'item.php' 的链接并使用spider的parse_item方法进行分析
        Rule(LinkExtractor(allow=('item\.php', )), callback='parse_item'),
    )

    def parse_item(self, response):
        self.logger.info('Hi, this is an item page! %s', response.url)
        item = scrapy.Item()
        item['id'] = response.xpath('//td[@id="item_id"]/text()').re(r'ID: (\d+)')
        item['name'] = response.xpath('//td[@id="item_name"]/text()').extract()
        item['description'] = response.xpath('//td[@id="item_description"]/text()').extract()
        return item

该 spider 将从 example.com 的首页开始爬取,获取 category 以及 item 的链接并对后者使用 parse_item 方法。当 item 获得返回(response)时,将使用 XPath 处理 HTML 并生成一些数据填入 Item 中。

XMLFeedSpider

class scrapy.spiders.XMLFeedSpider

XMLFeedSpider 被设计用于通过迭代各个节点来分析 XML 源(XML feed)。迭代器可以从 iternodes,xml,html 选择。鉴于 xml 以及 html 迭代器需要先读取所有 DOM 再分析而引起的性能问题,一般还是推荐使用 iternodes。不过使用 html 作为迭代器能有效应对错误的 XML。

您必须定义下列类属性来设置迭代器以及标签名:

属性/函数 描述
iterator

用于确定使用哪个迭代器的 string。默认值为 'iternodes',可选项有:

  • 'iternodes':一个高性能的基于正则表达式的迭代器;
  • 'html':使用 Selector 的迭代器。需要注意的是该迭代器使用 DOM 进行分析,其需要将所有的 DOM 载入内存,当数据量大的时候会产生问题;
  • 'xml':使用 Selector 的迭代器。需要注意的是该迭代器使用 DOM 进行分析,其需要将所有的 DOM 载入内存, 当数据量大的时候会产生问题。
itertag 一个包含开始迭代的节点名的string。
namespaces 一个由 (prefix, url) 元组所组成的。其定义了在该文档中会被 spider 处理的可用的 namespace。prefix 及 uri 会被自动调用 register_namespace() 生成 namespace。您可以通过在 itertag 属性中指定节点的 namespace。
adapt_response() 该方法在 spider 分析 response 前被调用。您可以在 response 被分析之前使用该函数来修改内容。该方法接受一个 response 并返回一个 response。
parse_node() 当节点符合提供的标签名时,该方法被调用。接收到的 response 以及相应的 Selector 作为参数传递给该方法。该方法返回一个 Item 对象或者 Request 对象或者一个包含二者的可迭代对象。
process_results() 当 spider 返回结果时该方法被调用。设定该方法的目的是在结果返回给框架核心之前做最后的处理,例如设定 item 的 ID。其接受一个结果的列表及对应的 response。其结果必须返回一个结果的列表。

XMLFeedSpider 示例

该 spider 十分易用。下边是其中一个例子:

from scrapy.spiders import XMLFeedSpider
from myproject.items import TestItem

class MySpider(XMLFeedSpider):
    name = 'example.com'
    allowed_domains = ['example.com']
    start_urls = ['http://www.example.com/feed.xml']
    iterator = 'iternodes' # This is actually unnecessary, since it's the default value
    itertag = 'item'

    def parse_node(self, response, node):
        self.logger.info('Hi, this is a <%s> node!: %s', self.itertag, ''.join(node.extract()))

        item = TestItem()
        item['id'] = node.xpath('@id').extract()
        item['name'] = node.xpath('name').extract()
        item['description'] = node.xpath('description').extract()
        return item

简单来说,我们在这里创建了一个 spider,从给定的 start_urls 中下载 feed,并迭代 feed 中每个 item 标签,并在 Item 中存储有些随机数据。

CSVFeedSpider

class scrapy.spiders.CSVFeedSpider

该 spider 除了其按行遍历而不是节点之外其他和 XMLFeedSpider 十分类似。而其在每次迭代时,调用的是 parse_row()

属性/函数 描述
delimiter 在 CSV 文件中用于区分字段的分隔符。类型为 string。默认为 ','
quotechar 这是一个包含每个字段使用引号('"')字符串。
headers 在 CSV 文件中包含的用来提取字段的行的列表。
parse_row() 该方法接收一个 response 对象及一个以提供或检测出来的 header 为键的字典(代表每行)。该 spider 中,您也可以覆盖 adapt_responseprocess_results 方法来进行预处理及后处理。

CSVFeedSpider 示例

下面的例子和之前的例子很像,但使用了 CSVFeedSpider

from scrapy.spiders import CSVFeedSpider
from myproject.items import TestItem

class MySpider(CSVFeedSpider):
    name = 'example.com'
    allowed_domains = ['example.com']
    start_urls = ['http://www.example.com/feed.csv']
    delimiter = ';'
    quotechar = "'"
    headers = ['id', 'name', 'description']

    def parse_row(self, response, row):
        self.logger.info('Hi, this is a row!: %r', row)

        item = TestItem()
        item['id'] = row['id']
        item['name'] = row['name']
        item['description'] = row['description']
        return item

SitemapSpider

class scrapy.spiders.SitemapSpider

SitemapSpider 使您爬取网站时可以通过 Sitemaps 来发现爬取的 URL。

其支持嵌套的 sitemap,并能从 robots.txt 中获取 sitemap 的 url。

属性/函数 描述
sitemap_urls 包含您要爬取的 url 的 sitemap 的 url 列表。您也可以指定为一个 robots.txt,spider 会从中分析并提取 url。
sitemap_rules

一个包含 (regex, callback) 元组的列表。

  • regex 是一个用于匹配从 sitemap 提供的 url 的正则表达式。regex 可以是一个字符串或者编译的正则对象;
  • callback 指定了匹配正则表达式的 url 的处理函数。callback 可以是一个字符串(spider 中方法的名字)或者是callable。
sitemap_follow 一个用于匹配要跟进的 sitemap 的正则表达式的列表。其仅仅被应用在使用 Sitemap index files 来指向其他 sitemap 文件的站点。默认情况下所有的 sitemap 都会被跟进。
sitemap_alternate_links 指定当一个 url 有可选的链接时,是否跟进。有些非英文网站会在一个 url 块内提供其他语言的网站链接。

SitemapSpider 示例

使用 parse 处理通过 sitemap 发现的所有 url:

from scrapy.spiders import SitemapSpider

class MySpider(SitemapSpider):
    sitemap_urls = ['http://www.example.com/sitemap.xml']

    def parse(self, response):
        pass # ... scrape item here ...

用特定的函数处理某些url,其他的使用另外的callback:

from scrapy.spiders import SitemapSpider

class MySpider(SitemapSpider):
    sitemap_urls = ['http://www.example.com/sitemap.xml']
    sitemap_rules = [
        ('/product/', 'parse_product'),
        ('/category/', 'parse_category'),
    ]

    def parse_product(self, response):
        pass # ... scrape product ...

    def parse_category(self, response):
        pass # ... scrape category ...

跟进 robots.txt 文件定义的 sitemap 并只跟进包含有 ..sitemap_shop 的url:

from scrapy.spiders import SitemapSpider

class MySpider(SitemapSpider):
    sitemap_urls = ['http://www.example.com/robots.txt']
    sitemap_rules = [
        ('/shop/', 'parse_shop'),
    ]
    sitemap_follow = ['/sitemap_shops']

    def parse_shop(self, response):
        pass # ... scrape shop here ...

在 SitemapSpider 中使用其他 url:

from scrapy.spiders import SitemapSpider

class MySpider(SitemapSpider):
    sitemap_urls = ['http://www.example.com/robots.txt']
    sitemap_rules = [
        ('/shop/', 'parse_shop'),
    ]

    other_urls = ['http://www.example.com/about']

    def start_requests(self):
        requests = list(super(MySpider, self).start_requests())
        requests += [scrapy.Request(x, self.parse_other) for x in self.other_urls]
        return requests

    def parse_shop(self, response):
        pass # ... scrape shop here ...

    def parse_other(self, response):
        pass # ... scrape other here ...
Scrapy 针对不同目的提供了多个命令。 ...
Python 因其快速简洁的开发特点,强大的文档处理相关库,非常适合爬虫开发。 ...
Scrapy 使用 Item 类定义公共输出数据格式,主要目标是从非结构化来源(通常是网页)提取结构化数据。Scrapy 爬虫可以将提取的数 ...
Scrapy 是用 Python 编写的,所以使用 Scrapy 之前,必须保证 Python 已经安装好。 ...
Scrapy 是一个使用 Python 编写的开源网络爬虫框架,使用基于 XPath 选择器(也可以用 CSS 选择器)来提取网页中的数据。 ...