Deeario è il blog di Tony Siino. In questo momento mi trovo a Palermo (Italia). //php if ( function_exists( "display_tweets" ) ) { display_tweets(); } //?> Informazioni estese su questo blog sono racchiuse nel colophon. Contatto: e-mail.
Copyright 2001-24. Tutti i diritti sono riservati.
A quanti megapixel equivale un’immagine visualizzata da un essere umano? Se consideriamo 120 gradi in orizzontale e 60 in verticale, pare, 576 megapixel.
Onestamente non credo che il pixel (o il suo multiplo Megapixel) sia una unità di misura idonea per quantificare la porzione di spazio percepita dall’occhio umano. Il pixel ha più senso se rapportato con la qualità (la precisione) della porzione di spazio “acquisita” dall’occhio. Chi conosce un minimo i programmi di grafica sa che in 1000 pixel ci puoi far entrare 10 100 o 1000 millimetri.
Smeerch, invece è davvero appropriato usare il pixel (o comunque unità discreta) per misurare la definizione dell’occhio umano. Nella retina ci sono fotorecettori in quantità finita dopotutto. La differenza più marcata è che questi non sono organizzati in una griglia ortogonale e (soprattutto) che hanno una concentrazione variabile (alta al centro, molto bassa alla periferia). In realtà l’occhio “fotografa” un’immagine piuttosto scadente: se il cervello non facesse un lavoro incredibile di compensazione e di micromovimenti della pupilla non vedremmo un tubo. :)
Se consideriamo che tra coni e bastoncelli ne abbiamo al massimo 160 milioni per occhio, volendo fare un’approssimazione di un pixel per cellula, otteniamo 160 megapixel, indipendentemente dalla distribuzione o dal campo visivo. Poi potrebbe essere che ogni cellula rilievi più di un “pixel virtuale” quindi si potrebbe moltiplilcare. ma credo che già 160 megapixel potrebbe andare. Oppure si potrebbe prendere il campo visivo e dividerlo per il dettaglio minimo che l’occhio può vedere, che è 15 secondi d’arco, quindi (prendendo il dato da sopra) 120*60 gradi sono 432000*216000= 93312 milioni di secondi d’arco quadrati che diviso 15^2 fa 414.720.000 di pixel, quindi 414 megapixel, forse questa stima è la più corretta..
Ma quanto ci vorrà perché facciano macchine fotografiche a 576 megapixel?
Onestamente non credo che il pixel (o il suo multiplo Megapixel) sia una unità di misura idonea per quantificare la porzione di spazio percepita dall’occhio umano. Il pixel ha più senso se rapportato con la qualità (la precisione) della porzione di spazio “acquisita” dall’occhio.
Chi conosce un minimo i programmi di grafica sa che in 1000 pixel ci puoi far entrare 10 100 o 1000 millimetri.
Decisamente anche l’occhio vuole la sua parte…di megapixel
Sciura Pina
Smeerch, invece è davvero appropriato usare il pixel (o comunque unità discreta) per misurare la definizione dell’occhio umano. Nella retina ci sono fotorecettori in quantità finita dopotutto.
La differenza più marcata è che questi non sono organizzati in una griglia ortogonale e (soprattutto) che hanno una concentrazione variabile (alta al centro, molto bassa alla periferia). In realtà l’occhio “fotografa” un’immagine piuttosto scadente: se il cervello non facesse un lavoro incredibile di compensazione e di micromovimenti della pupilla non vedremmo un tubo. :)
Se consideriamo che tra coni e bastoncelli ne abbiamo al massimo 160 milioni per occhio, volendo fare un’approssimazione di un pixel per cellula, otteniamo 160 megapixel, indipendentemente dalla distribuzione o dal campo visivo. Poi potrebbe essere che ogni cellula rilievi più di un “pixel virtuale” quindi si potrebbe moltiplilcare. ma credo che già 160 megapixel potrebbe andare. Oppure si potrebbe prendere il campo visivo e dividerlo per il dettaglio minimo che l’occhio può vedere, che è 15 secondi d’arco, quindi (prendendo il dato da sopra) 120*60 gradi sono 432000*216000= 93312 milioni di secondi d’arco quadrati che diviso 15^2 fa 414.720.000 di pixel, quindi 414 megapixel, forse questa stima è la più corretta..