O HDR é um recurso presente em telas como TVs e monitores, e estabelece a diferença de brilho entre o ponto mais escuro e o mais claro. Como resultado, telas com HDR podem reproduzir imagens e vídeos com maior fidelidade de cores, mais brilho e mais contraste do que uma comum. Saiba o que é HDR e como ele funciona a seguir.
HDR é a sigla de High Dynamic Range, ou em português, Grande Alcance Dinâmico. O Alcance Dinâmico é a proporção entre os menores e maiores valores que uma escala pode atingir, e no caso das telas de TVs e monitores, a diferença entre os pontos mais escuros e mais claros.
O Alcance Dinâmico Padrão, ou SDR, presente em TVs desde as de tubo, às planas com resolução até Full HD (1.920 x 1.080 pixels), possui uma proporção mais curta entre os pontos mais escuros e claros, e como consequência, reproduz cores em tons mais uniformes, com menos nuances. Isso faz com que a imagem reproduzida tenha menos fidelidade de cores.
No HDR, por sua vez, a proporção é bem maior (daí o “High” no nome), o que permite que as cores sejam reproduzidas com mais fidelidade. O HDR é capaz de diferenciar inúmeros tons de uma mesma faixa de cor, com um brilho bem mais forte, eliminando a sensação de cores “lavadas” de uma tela SDR.
Isso se dá por um motivo simples: a olho nú, é possível perceber que nem todos os tons de preto, branco e outras cores são iguais, mas por causa de limitações técnicas, as telas SDR não eram capazes de fornecer brilho suficiente para exibir cores mais realistas.
A técnica HDR em si não é nova, mas acabou limitada por conta da lenta evolução das TVs e monitores. A distância entre o tom mais escuro e o mais claro usa uma unidade de luminescência, chamada “nit”. A título de comparação, uma tela SDR é capaz de atingir de 100 a 200 nits, enquanto uma TV com HDR é capaz de marcar até 2.000 nits.
Quanto mais nits, maior a proporção e consequentemente, melhor a qualidade do HDR, que varia conforme o modelo da TV. Fabricantes costumam diferenciar as categorias de acordo com o preço, e as versões mais caras costumam trazer as melhores capacidades na reprodução de imagem e vídeo.
Como resultado, o HDR permite não só perceber mais cores, como exibe um melhor contraste e controle de brilho em regiões mais claras, que ficariam brilhantes demais no SDR, e mais escuras, em que elementos acabariam escondidos.
É possível notar essa diferença de iluminação entre o SDR e o HDR no vídeo abaixo, a cena inicial do game Shadow of The Tomb Raider:
O HDR é um método, e por causa disso, fabricantes de telas o implementam de formas diferentes, com soluções próprias. O HDR de primeira geração, por exemplo, trabalha com 8 bits de profundidade de cor. Isso significa que cada uma das 3 cores básicas (vermelho, verde e azul) usa 8 bits possíveis para tonalidades, onde cada bit pode ser 1 ou 0.
Isso significa que cada canal de cor possui 28 valores possíveis, ou 256 cores. Como são 3 cores, ou 2563, o HDR de 1ª geração é capaz de reproduzir 16.777.216 cores diferentes.
O padrão de código aberto HDR10 e seu sucessor HDR10+ (que tem mais nits), por sua vez, usam canais de 10 bits, ou 210 = 1024 tons, o que dá ao todo 10243 cores, ou 1.073.741.824 cores. Seu concorrente direto Dolby Vision, proprietário da Dolby Laboratories, vai mais além: ele usa 12 bits, ou 212 = 4.096 tons por canal de cor, resultando em 4.0963 cores, ou 68.719.476.736 cores.
Colocando em perspectiva, o Dolby Vision é capaz de reproduzir 64 vezes mais cores que o HDR10 e HDR10+, e estes 64 vezes mais cores que o HDR tradicional; logo, a diferença entre o Dolby Vision e o HDR de primeira geração é de 642, com o primeiro sendo capaz de reproduzir 4.096 vezes mais cores que o segundo.
Nenhum comentário:
Postar um comentário