Quando si utilizza il plugin NPM AWS-SDK per nods.js, posso caricare un pdf sul 50kb con il seguente codice (per AWS s3):Nodo upload di file s3 AWS-sdk dimensioni
var params = {
Bucket: BUCKET,
Key: pdf_key,
Body: file,
ContentType: 'application/pdf'
};
var s3 = new AWS.S3();
s3.putObject(params, function(error, data) {
console.log(data);
console.log(error);
if (error) {
console.log(error);
callback(error, null);
} else {
callback(null, pdf_key);
}
});
Ma quando caricando un pdf di 11mb, anche con l'indicazione dello ContentLength
, il caricamento continua per sempre, anche con un timeout di 2 minuti.
La domanda è: come faccio a far sì che aws s3 accetti il grande file pdf?
UPDATE
non ho ancora trovato alcuna documentazione o anwers per la domanda.
UPDATE 2
Accetterò le risposte che lo show di questo o un altro quadro che possono fare questo. Avrò bisogno di quel framework per poter permettere anche l'auth-read dell'oggetto.
UPDATE 3 Ho funzionato per ora ma non ho trovato una ragione per cui non dovrebbe funzionare.
Grazie in anticipo!
Non penso che sia un problema di codice. Il caricamento su S3 è solitamente lento e le fluttuazioni della rete possono renderlo ancora più imprevedibile. Se sei preoccupato per il caricamento di file di grandi dimensioni, potresti utilizzare caricamenti multipart. Ecco un esempio: https://gist.github.com/sevastos/5804803 – Sev
Bene, il caricamento multipart sembra bello ma è davvero necessario? Il più grande PDF è ~ 50 MB Posso accettare una risposta se scrivi che è generalmente lento ecc. Ecc., Perché ora funziona senza alcuna modifica dal mio lavoro internet, che è più veloce delle mie case. –