Video

HDR vs SDR: qual è la differenza?

Si parla molto di tecnologia HDR ma, in realtà, ben pochi sanno di cosa si tratta.

Stiamo parlando di una soluzione sempre diffusa anche nel contesto dello streaming online, essendo largamente adottata da servizi come Amazon Prime, Disney+ e Netflix. A livello pratico dunque, se stai cercando una nuova TV o un nuovo monitor, è una buona idea controllare che l’HDR sia supportato da ciò che stai acquistando.

Ma di cosa stiamo parlando effettivamente? In questo articolo andremo a fondo, analizzando cos’è e come funziona l’HDR per confrontare questa soluzione con il più classico SDR.

Smart TV

Che cos’è la tecnologia SDR?

Lo Standard Dynamic Range (SDR) è uno standard video utilizzato dai monitor CRT. Nonostante il successo di mercato della tecnologia dello schermo HDR, SDR è ancora il formato predefinito utilizzato ancora in molti TV, monitor e proiettori.

Sebbene fosse utilizzato nei vecchi monitor CRT (una tecnologia ad oggi vista come piuttosto limitata), SDR è ancora un formato accettabile al giorno d’oggi. In effetti, la stragrande maggioranza dei contenuti video, che si tratti di giochi, film o video di YouTube, utilizza ancora SDR. Fondamentalmente, se il dispositivo o il contenuto non è classificato come HDR, probabilmente stai utilizzando questo standard.

Che cos’è l’HDR?

High Dynamic Range (HDR) è lo standard più recente per immagini e video. L’HDR è diventato popolare in principio tra i fotografi che desideravano esporre correttamente una composizione con due soggetti con una differenza di 13 stop nel valore dell’esposizione.

Più recentemente, l’HDR è stato introdotto per i contenuti video, come film e giochi. Mentre i contenuti riprodotti attraverso SDR hanno talvolta proposto neri indistinguibili e problemi di banding durante le scene ad alto contrasto, l’HDR permette di ritrarre realisticamente le stesse scene con uno spazio colore, una profondità e una luminosità fino a quel momento impossibili da raggiungere.

Ma quanto è percepibile, a livello pratico, la differenza tra SDR e HDR?

Confronto tra HDR e SDR

Se hai dato uno sguardo anche superficiale al mercato delle TV e dei monitor, probabilmente hai notato alcune specifiche come sRGB, nits e cd/m2. Queste specifiche riguardano lo spazio colore, la luminanza e la profondità. Tutte queste caratteristiche sono ciò che rende la riproduzione video efficace e piacevole.

Per comprendere meglio la differenza tra HDR e SDR, confrontiamo i due attraverso la loro gamma di colori, luminosità e profondità di colore. Iniziamo con la gamma di colori.

Gamma di colori

La gamma di colori è uno spettro teorico di colori che possono essere rappresentati digitalmente. Per rappresentare tutti i possibili colori che gli occhi possono vedere, l’industria utilizza il cosiddetto diagramma di cromaticità CIE 1931. Questo diagramma è lo standard con cui vengono confrontati diversi spazi colore.

Gamma colore

SDR utilizza uno spazio colore chiamato Rec 709 e HDR con Rec 2100. Il triangolo rappresenta la quantità di spazio che utilizzano attraverso l’illustrazione seguente:
Come puoi vedere, lo spazio colore utilizzato da Rec 2100 di HDR è significativamente più grande di quello di Rec 709 di SDR.

Con l’ampio spazio colore dell’HDR, chi crea contenuti ha a disposizione uno spettro significativamente più ampio di verdi, rossi e gialli per ritrarre in modo accurato e artistico le immagini. Ciò significa che gli spettatori che guardano l’HDR vedranno colori più vivaci, specialmente nei verdi, gialli, rossi e tutte le varianti e sfumature degli stessi.

Di suo, va detto, lo standard SDR offre comunque una buona proporzione tra i colori primari. Ciò significa che comunque non ha limitazioni significative nella maggior parte dei casi e dei contenuti proposti.

Luminosità

Con lo schema che ti abbiamo mostrato poco fa, hai visto la gamma di colori rappresentata in 2D. Tuttavia, l’intero spazio colore CIE 1931 è in realtà un diagramma 3D. La terza dimensione del diagramma infatti, è costituita dalla luminosità del colore percepita dall’occhio umano. La luminosità, insieme alla saturazione, è ciò che modifica la percezione del colore.

Un display in grado di produrre quantità maggiori di luminosità è più in grado di modificare tutte le tonalità rappresentate dallo scape di colore 2D e quindi può visualizzare più colori visibili agli occhi umani. La luminosità è misurata in nit o candele/m2.

SDR è in grado di emettere 100 nit o 100 cd/m2. Al contrario, l’HDR10 (lo standard HDR più comune) può produrre fino a 1.000 nits. Ciò significa che la visione in HDR10 può consentire agli spettatori di vedere più varietà di colori primari e secondari. Una differenza ancora più marcata tra i due standard rispetto a quanto mostrato con la gamma di colori.

Profondità del colore

Anche se gli occhi umani vedono tutte le immagini in “analogico”, i display digitali devono imitare queste onde di luce analogiche in bit digitali affinché i processori possano ricrearli. Questi bit di informazioni digitali sono noti come profondità di colore o bit di colore.

L’occhio umano usa la percezione per vedere colori diversi e, i display digitali, utilizzano la profondità del colore per indicare a un pixel il colore da mostrare sullo schermo. Più un pixel può lampeggiare, più colori può visualizzare.

SDR può visualizzare 8 bit di colore, il che significa che un pixel può visualizzare un colore primario in 256 varietà. Poiché sono disponibili tre colori primari, un pannello a 8 bit può visualizzare un massimo di 16.777.216 sfumature di colore.

Per metterlo in prospettiva, l’occhio umano può distinguere solo circa 10 milioni di colori. Ciò significa che SDR è in grado di visualizzare i colori che i nostri occhi umani possono vedere, motivo per cui il colore a 8 bit è ancora lo standard più diffusi per i media visivi odierni.

Al contrario, HDR10 può ottenere una profondità di colore di 10 bit, consentendo un massimo di 1,07 miliardi di sfumature. Impressionante, ma poiché l’occhio umano può distinguere solo circa 10 milioni di colori, una profondità di colore a 10 bit non è eccessiva? In realtà, non è del tutto vera questa considerazione.

Le persone possono percepire più colori con una profondità di 10 bit perché l’occhio umano non percepisce le tonalità di colore allo stesso modo.

bits colore

Se osservi la scala cromatica CIE 1931 qui sopra, puoi vedere che l’occhio umano riesce vedere molti più verdi e rossi che blu. Sebbene una profondità di colore a 8 bit possa massimizzare da vicino tutto il blu che i tuoi occhi possono percepire, non può fare lo stesso con il rosso e con i verdi. Quindi, sebbene vedrai circa la stessa gamma di blu a 8 e 10 bit, altri primari come rossi e verdi mostreranno più variabili percepibili ai tuoi occhi.

Pro e contro di HDR e SDR

HDR e SDR sono due standard utilizzati nei media digitali visivi e che, anche se vede il primo più recente, comportano vantaggi e svantaggi.

In termini di colore e display, l’HDR è migliore dell’SDR senza ombra di dubbio. Tale tecnologia fornisce miglioramenti significativi nello spazio colore, nella luminosità e nella profondità del colore. Quindi, se hai la possibilità di guardare film, visualizzare immagini o giocare in HDR, dovresti sempre farlo, ma puoi?

Il problema con l’HDR è che attualmente buona parte dei prodotti video non è ancora compatibile con l’HDR. Spesso, la visualizzazione di contenuti multimediali HDR su uno schermo SDR renderà la tua esperienza visiva peggiore rispetto a guardarli su un normale pannello SDR.

Un altro problema è che la maggior parte dei dispositivi HDR utilizza HDR10, che è vagamente standardizzato, mentre il suo marketing è in gran parte uniforme. Ad esempio, troverai il logo HDR10 piazzato su un prodotto scadente che non può funzionare come il pannello da 1.000 nits.

Sebbene l’SDR fornisca i consueti standard di visualizzazione e non possa competere con l’HDR quando funziona, la sua facilità d’uso, compatibilità e costi inferiori sono i motivi per cui molte persone preferiscono ancora usarlo.

Hai bisogno sia di HDR che di SDR

Ora che conosci la differenza tra gli standard SDR e HDR, diventa ovvio che l’HDR è il chiaro vincitore quando si tratta di guardare contenuti moderni e di qualità. Questo, tuttavia, non significa che dovresti smettere di usare SDR: la verità è che SDR è ancora lo standard migliore da utilizzare ogni volta che non stai guardando o riproducendo contenuti specifici per HDR.

Se stai acquistando un nuovo display, sia esso TV o monitor, sarebbe saggio investire in un pannello compatibile con HDR e di alto livello in quanto ti consente di guardare sia contenuti HDR che SDR. Poiché il contenuto SDR ha un aspetto scadente in HDR10, puoi sempre disattivare l’HDR quando vuoi riprodurre un contenuto video appositamente ideato per SDR.

Nel futuro, molto probabilmente, SDR sparirà nel giro di qualche anno: allo stato attuale però, rinunciare a una parte dei contenuti video disponibili optando per l’HDR è un sacrificio che non vale la pena fare.

Fonte: Makeuseof

Potrebbero interessarti
Consigli per gli acquistiIntrattenimentoVideo

Che fine hanno fatto i televisori al plasma?

IntrattenimentoVideo

Quanto fa risparmiare la modalità "Risparmio energetico"della TV?

IntrattenimentoVideo

Che cos’è l'effetto schermo sporco e come rimuoverlo

IntrattenimentoVideo

Piattaforme Smart TV: quali sono e quale scegliere