La tecnología HDR ahora está tan extendida que los servicios de transmisión populares como Amazon Prime, Disney+ y Netflix han comenzado a admitir contenido HDR. De hecho, si tuviera que buscar un nuevo televisor o monitor hoy, se sorprendería de cómo casi todos los productos cuentan con HDR en su lista de especificaciones.

Lo que plantea la pregunta: ¿qué es exactamente HDR? ¿Cómo funciona HDR y cómo se compara con SDR normal?

¿Qué es DEG?

El rango dinámico estándar (SDR) es un estándar de video que ha estado en uso desde los monitores CRT. A pesar del éxito en el mercado de Tecnología de pantalla HDR, SDR sigue siendo el formato predeterminado que se usa en televisores, monitores y proyectores. Aunque se usó en monitores CRT antiguos (y en realidad se ve obstaculizado por las limitaciones de la tecnología CRT), SDR sigue siendo un formato aceptable en la actualidad. De hecho, la gran mayoría del contenido de video, ya sean juegos, películas o videos de YouTube, todavía usa SDR. Básicamente, si el dispositivo o el contenido no está calificado como HDR, probablemente esté usando SDR.

instagram viewer

¿Qué es HDR?

High Dynamic Range (HDR) es el estándar más nuevo en imágenes y videos. HDR se hizo popular por primera vez entre los fotógrafos que querían exponer correctamente una composición con dos sujetos que tenían una diferencia de 13 pasos en el valor de exposición. Un rango dinámico tan amplio permitiría una exposición adecuada a escenas de la vida real que antes no era posible con SDR.

Credito de imagen: ricardo huber/Wikimedia Commons

Más recientemente, HDR se introdujo en películas, videos e incluso juegos. Si bien el contenido de SDR proporcionó cielos exagerados, negros indistinguibles y problemas de bandas durante escenas de alto contraste, HDR retrata de manera realista estas escenas con un espacio de color más amplio, profundidad de color, y luminancia.

Un espacio de color más amplio, una mayor profundidad de color y una mayor luminancia hacen que HDR sea mejor que SDR, pero ¿por cuánto?

Comparando HDR vs. DEG

Si alguna vez ha estado buscando un monitor en el mercado, probablemente haya notado ciertas especificaciones como sRGB, nits y cd/m2, y colores de 10 bits. Estas especificaciones son para espacio de color, luminancia y profundidad de color. Todas estas especificaciones son las que hacen que los sujetos sean vibrantes, bien mezclados y adecuadamente expuestos dentro de una imagen.

Para comprender mejor la diferencia entre HDR y SDR, comparemos los dos a través de su gama de colores, brillo y profundidad de color. Comencemos con la gama de colores.

Gama de colores

Una gama de colores es un espectro teórico de colores que se pueden representar digitalmente. Para representar todos los colores posibles que los ojos pueden ver, la industria utiliza lo que se conoce como diagrama de cromaticidad CIE 1931. Este diagrama es el estándar con el que se comparan diferentes espacios de color. SDR usa un espacio de color llamado Rec 709 y HDR con Rec 2100. El triángulo representa cuánto espacio utilizan a través de la siguiente ilustración:

Crédito de la imagen: Sakurambo/Wikimedia Commons

Como puede ver, el espacio de color utilizado por Rec 2100 de HDR es significativamente mayor que el de Rec 709 de SDR.

Con el gran espacio de color de HDR, los cineastas y varios creadores de contenido tendrán un espectro significativamente mayor de verdes, rojos y amarillos para representar su trabajo de manera precisa y artística. Esto significa que los espectadores que vean HDR verán colores más vibrantes, especialmente en verdes, amarillos, rojos y todo lo demás.

En cuanto a SDR, dado que el espacio de color tiene cantidades proporcionadas de colores primarios, los coloristas aún pueden representar su trabajo de manera hermosa, aunque con limitaciones significativas.

Brillo

Ha visto la gama de colores representada en 2D como la que se usó anteriormente. Sin embargo, todo el espacio de color CIE 1931 es en realidad un diagrama 3D. La tercera dimensión del diagrama representa el brillo percibido del color. El brillo, junto con la saturación, es lo que modifica la calidad del color que los humanos somos capaces de ver.

Una pantalla que puede generar mayores cantidades de luminancia es más capaz de modificar todos los tonos que representa el paisaje de color 2D y, por lo tanto, puede mostrar más colores visibles para los ojos humanos. La luminancia se mide en nits o candelas/m2.

SDR es capaz de producir 100nits o 100cd/m2. Por el contrario, el HDR10 (el estándar HDR más común) puede producir hasta 1000 nits. Esto significa que mirar en HDR10 puede permitir a los espectadores ver más variedades de colores primarios y secundarios.

Profundidad del color

Aunque los ojos humanos ven todo en analógico, las pantallas digitales deben imitar estas ondas de luz analógicas en bits digitales para que los procesadores las recreen. Estos bits de información digital se conocen como profundidad de color o bits de color.

El ojo humano usa la percepción para ver diferentes colores. Las pantallas digitales usan profundidad de color o profundidad de bits para indicarle a un píxel qué color mostrar. Cuanto más puede parpadear un píxel, más colores puede mostrar.

SDR puede mostrar 8 bits de color, lo que significa que un píxel puede mostrar un color primario en 256 variedades. Dado que hay tres colores primarios, un panel de 8 bits puede mostrar un máximo de 16 777 216 tonos de color.

Para poner eso en perspectiva, el ojo humano solo puede distinguir alrededor de 10 millones de colores. Esto significa que SDR es muy capaz de mostrar colores que nuestros ojos humanos pueden ver, razón por la cual el color de 8 bits sigue siendo el estándar para los medios visuales en la actualidad.

Por el contrario, HDR10 puede hacer una profundidad de color de 10 bits, lo que permite un máximo de 1070 millones de tonos de color.

Impresionante, pero dado que el ojo humano solo puede distinguir alrededor de 10 millones de colores, ¿no es una profundidad de color de 10 bits una exageración? ¿Puedes siquiera ver la diferencia?

¡Sí, absolutamente podrías! ¿Pero cómo?

Las personas pueden percibir más colores con una profundidad de 10 bits porque el ojo humano no percibe los tonos de color por igual.

Crédito de la imagen: Sakurambo/Wikimedia Commons

Si observa la escala de cromaticidad CIE 1931 (en la imagen de arriba), puede ver que el ojo humano puede ver muchos más verdes y rojos que azules. Aunque una profundidad de color de 8 bits puede maximizar de cerca todos los azules que sus ojos pueden percibir, no puede hacer lo mismo con el rojo, y especialmente con los verdes. Entonces, aunque verá alrededor de la misma gama de azules en 8 y 10 bits, otros colores primarios, como rojos y verdes, se mostrarán más en un sistema que use una profundidad de color de 10 bits.

Pros y contras de HDR y SDR

Credito de imagen:lucas5000/Flickr

HDR y SDR son dos estándares utilizados en medios digitales visuales. Usar un estándar de otro tendrá sus calles y debilidades. Aquí hay una tabla para mostrarle cómo se compara uno con el otro:

En términos de color y visualización, HDR es mejor que SDR en todos los sentidos. Proporciona mejoras significativas en el espacio de color, la luminancia y la profundidad de color. Entonces, si tiene la oportunidad de ver películas, ver imágenes o jugar juegos en HDR, siempre debe hacerlo, pero ¿puede hacerlo?

El problema con HDR es que la mayoría de los medios consumibles no son compatibles con HDR. A menudo, ver medios HDR en una pantalla SDR hará que su experiencia de visualización sea peor que verlos en un panel SDR normal.

Otro problema es que la mayoría de los dispositivos HDR usan HDR10, que está ligeramente estandarizado, mientras que su comercialización es en gran medida uniforme. Por ejemplo, encontrará el logotipo de HDR10 en un panel inferior que no puede funcionar tan bien como el panel de 1000 nits que se muestra en los anuncios de HDR10.

Aunque SDR proporciona los estándares de visualización habituales y no puede competir con HDR cuando funciona, su facilidad de uso, compatibilidad y menor costo es la razón por la que muchas personas aún prefieren usarlo.

Necesita HDR y SDR

Ahora que conoce la diferencia entre los estándares SDR y HDR, es obvio que HDR es el claro ganador cuando se trata de ver contenido de entretenimiento. Esto, sin embargo, no significa que deba dejar de usar SDR. La verdad es que SDR sigue siendo el mejor estándar para usar cuando no está viendo o reproduciendo contenido específico de HDR.

Si está comprando una nueva pantalla, sería prudente invertir en un panel con capacidad HDR más caro, ya que le permite ver contenido HDR y SDR. Dado que el contenido SDR se ve mal en HDR10, siempre puede desactivar HDR cuando esté viendo, reproduciendo o viendo contenido y aplicaciones SDR.

Con suerte, eso le da una idea de cuánto impacto trae HDR a la mesa. Aunque SDR seguirá siendo la forma en que disfrutará de varios contenidos, es solo cuestión de tiempo hasta que HDR obtenga un mejor soporte. Entonces, probablemente será el futuro estándar que todos usen.