Devo eseguire alcune richieste di feed XML simultanee in Perl. Qual è il modo più veloce per fare questo ?Qual è il modo più veloce per creare richieste Web simultanee in Perl?
risposta
Io probabilmente usare AnyEvent, forse in questo modo:
use AnyEvent;
use AnyEvent::HTTP;
sub get_feeds {
my @feeds = @_;
my $done = AnyEvent->condvar;
my %results;
$done->begin(sub { $done->send(\%results) });
for my $feed (@feeds){
$done->begin;
http_get $feed, sub { $results{$feed} = \@_; $done->end };
}
$done->end;
return $done;
}
my $done = get_feeds(...);
my $result = $done->recv; # block until all feeds are fetched
Il collegamento a AnyEvent :: HTTP è http://search.cpan.org/~mlehmann/AnyEvent-HTTP/. – gpojd
ho usato LWP::Parallel::UserAgent per qualcosa di simile. Un esempio dal POD:
require LWP::Parallel::UserAgent;
$ua = LWP::Parallel::UserAgent->new();
...
$ua->redirect (0); # prevents automatic following of redirects
$ua->max_hosts(5); # sets maximum number of locations accessed in parallel
$ua->max_req (5); # sets maximum number of parallel requests per host
...
$ua->register ($request); # or
$ua->register ($request, '/tmp/sss'); # or
$ua->register ($request, \&callback, 4096);
...
$ua->wait ($timeout);
...
sub callback { my($data, $response, $protocol) = @_; .... }
LWP :: Parallel non supera i test al momento, però. –
Penso che non sia più mantenuto. Ho spostato tutto il mio lavoro per utilizzare AnyEvent :: HTTP. – gpojd
HTTP::Async è abbastanza veloce e molto facile da codice.
In modo cruciale, restituisce oggetti HTTP :: Response, in modo da poterlo inserire in modo quasi indolore al posto di LWP. –
In realtà, AnyEvent::Curl::Multi è una libreria non bloccante costruita su libcurl. Molto veloce e tonnellate di concorrenza disponibili. Molto più potente di AnyEvent :: HTTP, IMO.
Vuoi dire più veloce come in: una soluzione che sarà più veloce da implementare, o una soluzione che sarà più veloce una volta implementata? – Marcus