Si dovrebbe fare esattamente come @warwaruk indicato, sotto è il mio esempio elaborazione di un ragno crawl:
from scrapy.contrib.spiders import CrawlSpider
from scrapy.http import Request
class MySpider(CrawlSpider):
name = "myspider"
allowed_domains = ["example.com"]
start_urls = [
'http://example.com/foo'
'http://example.com/bar'
'http://example.com/baz'
]
rules = [(...)]
def start_requests(self):
requests = []
for item in start_urls:
requests.append(Request(url=item, headers={'Referer':'http://www.example.com/'}))
return requests
def parse_me(self, response):
(...)
Questo dovrebbe generare seguenti registri nel tuo terminale:
(...)
[myspider] DEBUG: Crawled (200) <GET http://example.com/foo> (referer: http://www.example.com/)
(...)
[myspider] DEBUG: Crawled (200) <GET http://example.com/bar> (referer: http://www.example.com/)
(...)
[myspider] DEBUG: Crawled (200) <GET http://example.com/baz> (referer: http://www.example.com/)
(...)
Funzionerà allo stesso modo con BaseSpider. Alla fine il metodo start_requests è il metodo BaseSpider, da cui eredita CrawlSpider.
Documentation spiega più opzioni da impostare in Richiesta a parte le intestazioni, come ad esempio: biscotti, funzione di callback, priorità della richiesta, ecc