Così qui è il mio problema:immagine percettiva Downsampling
Ho un'immagine, l'immagine è grande (alta risoluzione) e ha bisogno di essere di piccole dimensioni (risoluzione molto più bassa).
Così faccio la cosa ingenua (uccido ogni altro pixel) e il risultato sembra scadente.
Così provo a fare qualcosa di più intelligente (filtraggio passa-basso usando una trasformata di Fourier e ricampionamento nello spazio di Fourier) e il risultato è un po 'migliore ma ancora piuttosto scadente.
Quindi, la mia domanda è che esiste un algoritmo (o implementazione) di campionamento sottocosto percettivamente motivato?
modifica: Mentre sono a conoscenza di una serie di tecniche di ricampionamento, la mia applicazione è più interessata a preservare le caratteristiche percettive piuttosto che produrre immagini uniformi.
EDIT2: è lecito ritenere che ho un certo livello di familiarità con l'elaborazione del segnale digitale, circonvoluzioni, trasformate wavelet, ecc
OK, che tipo di immagini stai cercando di scala? Disegni lineari? Fotografie? Mi sono occupato principalmente di immagini video e gli algoritmi di ridimensionamento che funzionano bene con i video potrebbero non funzionare bene quando si tenta di preservare funzionalità specifiche (ad esempio le linee nell'animazione tradizionale, per esempio). –
Per il momento diciamo che è l'immagine di un orso (rimosso dal suo sfondo) e una volta ridimensionato voglio che assomigli ancora ad un orso. – tzenes
Orso disegnato a mano? Una fotografia di un orso? Pedobear? Con quale fattore stai scalando? Dalla tua descrizione ("uccidi ogni altro pixel") sembra che tu stia ridimensionando solo di un fattore 2, quindi un buon algoritmo generale dovrebbe funzionare bene (a meno che l'immagine non sia line art con linee larghe 1 pixel, in cui caso non sembrerà così bello ...) Sarei curioso di sapere come funziona questo approccio di vettorizzazione. –