2015-12-14 26 views

risposta

3

Il crawler (scrapy.crawler) è il principale punto di accesso a Scrapy API. Fornisce l'accesso a tutti i componenti principali di Scrapy ed è utilizzato per collegare le funzionalità delle estensioni in Scrapy.

Scraper (scrapy.core.scraper) componente è responsabile per l'analisi delle risposte e l'estrazione di informazioni da loro. Viene eseguito dal motore ed è utilizzato per far girare i tuoi spider.

scrapy.spiders è un modulo che contiene di base Spider implementazione (che si utilizza per scrivere i ragni), insieme ad alcuni ragni comuni disponibile out of the box (come il CrawlSpider per la scansione insieme di regole-base, il SitemapSpider per la scansione del sito in base o XMLFeedSpider per la scansione dei feed XML).

Maggiori informazioni disponibili sulle pagine ufficiali di documentazione:
http://doc.scrapy.org/en/latest/topics/spiders.html?highlight=crawlspider#spiders http://doc.scrapy.org/en/latest/topics/api.html?highlight=scrapy.crawler#module-scrapy.crawler

+0

“risposte di analisi e informazioni estrazione”: è quel ragno? –

+0

Sì, il componente ruspa spianatrice è responsabile dell'esecuzione di spider. – bosnjak