¿Qué es HDR? – ExpertoGeek

HDR significa High Dynamic Range y es una característica promocionada en muchos televisores, monitores de PC e incluso teléfonos móviles más nuevos. Desafortunadamente, hay una serie de estándares HDR en competencia que dificultan la comprensión de lo que realmente hace HDR y por qué es mejor que el rango dinámico estándar.

DTS

SDR o rango dinámico estándar es la experiencia predeterminada para la mayoría de los dispositivos. Los monitores SDR utilizan una profundidad de color de 8 bits, lo que significa que se utilizan 8 bits de datos para especificar el valor de cada uno de los tres canales de color. El esquema de color estándar para el contenido SDR se conoce como sRGB (Red Green Blue Standard) y es un estándar aprobado por HP y Microsoft en 1996, antes de ser estandarizado por IEC en 1999.

El esquema de color sRGB se basa en los colores que podrían estar representados en los monitores CRT actuales. Normalmente, los monitores SDR funcionan con un brillo de entre 120 y 300 nits.

Sugerencia: cd / m ^ 2 es la unidad SI de luminancia. Se basa en la candela, la unidad SI para la intensidad de la luz y el metro cuadrado. La candela por metro cuadrado también se llama comúnmente «nit», que proviene del latín «Niter» que significa «brillar».

HDR

HDR mejora SDR mediante el uso de un espectro de color más amplio conocido como WCG, Wide Color Gamut. HDR puede aprovecharlo al máximo aumentando la profundidad de color de 8 bits a 10 bits. Esto permite especificar muchos más colores, lo que permite una mayor precisión del color.

HDR también tiene al menos un brillo máximo de 450 nits, aunque algunos televisores pueden alcanzar las 10,000 nits. Los datos de brillo adicionales se transmiten como metadatos y permiten un mayor contraste entre la luz y la oscuridad, lo que hace que los colores sean más vívidos.

Sugerencia: Los metadatos son un flujo de datos secundario que proporciona «datos sobre otros datos».

Estándares

HDR10 es el estándar HDR más común, utiliza color de 10 bits. El brillo se transmite como metadatos, pero solo al comienzo de una transmisión, lo que significa que solo se puede usar un ajuste de brillo en lugar de cambiar dinámicamente el brillo en relación con la escena. El estándar HDR10 también permite un brillo máximo de 1000 nits.

HDR10 + se basa en el estándar HDR10 al admitir una profundidad de color de hasta 12 bits, video de 8K y un brillo máximo de 10,000 nits. HDR10 + también permite el brillo cuadro por cuadro o escena por escena, lo que permite un mayor contraste al cambiar entre ubicaciones brillantes y oscuras.

El otro estándar popular es Dolby Vision, que admite un conjunto de funciones similar al HDR10 +, pero es propietario y cuesta $ 3 por dispositivo para admitirlo en lugar del estándar HDR10 + gratuito.

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *