chick80
Moderatore
Città: Edinburgh
11491 Messaggi |
Inserito il - 02 giugno 2010 : 22:46:58
|
E' un discorso piuttosto complesso, ti rispondo velocemente ma sappi che c'è molto di più da sapere.
Pixel depth: in un'immagine digitale il colore di ogni punto (pixel) viene salvato con un numero. Per memorizzare i numeri i computer possono usare una diversa quantità di memoria. Ad esempio usando 8 bit (=1 byte) si possono memorizzare i numeri da 0 a 255.
In un'immagine in scala di grigi a 8 bit ciascun canale potrà andare da 0 (nero) a 255 (=2^8) (bianco), avendo quindi 256 possibili sfumature di grigio.
In un'immagine a colori ciascun colore viene memorizzato come una tripletta di R,G,B (red, green e blue). Se vogliamo avere 256 possibili valori per ciascun canale (R,G e B) dobbiamo usare quindi 24 bit (true color), il che ci darà ~16.7 milioni di combinazioni di colori possibili.
Esistono anche immagini a colori a 8 bit (256 colori). In quel caso le immagini sono "indexed" (=indicizzate), cioè si memorizza una tabella di 256 colori RGB e poi i vari pixel vengono salvati come "indici" di questi colore (es. colore 6, colore 143, colore 28 etc)
Esistono altre situazioni come le immagini a 1 bit (bianco e nero), a 16 bit (high-color) e 48 bit (deep color). Vedi per più info http://en.wikipedia.org/wiki/Color_depth
-Aliasing, Teorema di Nyquist, effetto Moirè Questi sono tutti concetti connessi tra di loro. In pratica se tu hai un segnale continuo e lo approssimi discretizzandolo puoi perdere dell'informazione. Ad es. considera questo segnale:
Il segnale "reale" è quello rosso. Se noi "discretizziamo" questo segnale prendendo i punti indicati perdiamo dell'informazione. Infatti i punti indicati stanno sì sul segnale rosso, ma anche su quello blu. Non saremo quindi in grado di distinguere il segnale blu da quello rosso (non abbiamo abbastanza informazione). Possiamo quindi dire che il segnale blu è un "alias" di quello rosso. Questo è il fenomeno detto di "aliasing".
Un'immagine digitale rappresenta la discretizzazione in un numero finito di pixel di un segnale reale (ad es. il paesaggio che stiamo fotografando). Se il numero di pixel è insufficiente possiamo ottenere lo stesso effetto di aliasing.
Questo è il tipico esempio:
L'effetto "a cerchi concentrici" che vedi in basso a destra è dovuto ad un "sampling" (=campionamento) troppo basso dell'immagine e si chiama "pattern Moiré". Qui trovi altri esempi: http://en.wikipedia.org/wiki/Moir%C3%A9_pattern
E Nyquist che c'entra? Il teorema di Nyquist dice che per evitare l'aliasing bisogna avere un sampling rate maggiore della massima componente di frequenza (anche detta bandwith) presente nel segnale. Questo perchè ciascun segnale può essere trasformato in una somma di funzioni periodiche di diversa frequenza (leggiti qualcosa sulle serie di Fourier).
Interpolazione di un'immagine Quando discretizzi un segnale continuo perdi dell'informazione. Essenzialmente non sai cosa c'è fra un punto ed un altro. Un'interpolazione è un processo matematico che ti permette di derivare questi punti mancanti semplicemente conoscendo quelli che ci stanno attorno. La tipica applicazione per un'immagine è quella di ingrandire un'immagine: se partiamo da un'immagine 100x100 e vogliamo ingrandirla a 200x200 abbiamo bisogno di un metodo per generare i 30000 punti in più che avrà l'immagine finale. Questi sono generati interpolando i colori dei pixel attorno. Per semplificare di molto la cosa se a destra hai un punto blu scuro e a destra uno azzurro chiaro nel mezzo per interpolazione avrai un punto blu intermedio. |
Sei un nuovo arrivato? Leggi il regolamento del forum e presentati qui
My photo portfolio (now on G+!) |
|
|