HDR – co to jest? Co to w zasadzie oznacza?

Analizując rynkową ofertę telewizorów, nietrudno natknąć się na różne określenia w rodzaju 4K, PQI, MEMC, DCi, SDR, HDR. Terminy te są niejednokrotnie trudne do rozszyfrowania dla konsumentów i nie ułatwiają im wyboru telewizora. W niniejszym poradniku zajmiemy się wyjaśnieniem, czym jest HDR, dlaczego warto kupić telewizor z takim rozwiązaniem i jak wybrać dobry model.

Czym jest HDR?

HDR jest skrótem od angielskiego wyrażenia „High Dynamic Range”, oznaczającego szeroki zakres dynamiki obrazu.

Czym jest dynamika obrazu?

Ogólnie rzecz biorąc dynamika obrazu to rozpiętość pomiędzy najjaśniejszymi tonami (światłami w języku filmowców), a najciemniejszymi tonami (czernią i bardzo ciemnymi szarościami). Im większa jest ta rozpiętość, tj. im jaśniejsza biel oraz im ciemniejsza czerń, tym większa rozpiętość tonalna, a tym samym bardziej realistyczny i atrakcyjny obraz.

Q HDR 2000
Źródło: Samsung

W jakim celu wprowadzono HDR?

Dlaczego tak właściwie wprowadzono HDR? Przecież zaawansowane telewizory (jak np. plazmy) również oferowały ciemną czerń i wysoki kontrast.

HDR powstał po to, aby przekazać widzom dużo więcej informacji niż dotychczas. I nie chodzi tu tylko o większy kontrast, czyli jaśniejsze światła i ciemniejszą czerń, lecz także o znacznie lepszą gradację pośrednich tonów pomiędzy bielą a czernią. Nieobsługujące HDR tradycyjne telewizory (zwane SDR od „Standard Dynamic Range”, czyli standardowego zakresu dynamiki) mogą wyświetlać obraz 8-bitowy, co oznacza, że możliwych jest tylko 256 (2^8) odcieni szarości. Z kolei telewizory HDR muszą wyświetlać sygnał minimum 10-bitowy, który ma 1024 (2^10) odcieni szarości, czyli o cztery razy lepszej gradacji. I to właśnie połączenie lepszej gradacji, znacznie wyższej jasności oraz rozdzielczości 4K sprawia, że dobrze zrealizowane filmy HDR tak bardzo przewyższają jakością materiały SDR.

O standardzie HDR

Czy HDR jest jednolitym standardem? Jeśli tak, to skąd się biorą różne odmiany HDR-u jak HDR10, czy Dolby Vision?

HDR nie jest jednym standardem, lecz zbiorem całego szeregu standardów określających sposób kodowania informacji o jasności (PQ lub HLG), gradacji odcieni (10 lub więcej bitów) czy o kolorze. Istnieją też różne odmiany lub „formaty”, jak HDR10, Dolby Vision, czy HDR10+, z których każdy ma swoje zalety i wady. Istnienie tych różnych formatów wynika z wielu przyczyn, zarówno technicznych (HDR10 jest łatwiejszy w implementacji i nie tak wymagający od sprzętu jak Dolby Vision), jak i finansowo-marketingowych – określone studia filmowe i producenci telewizorów forsują takie, a nie inne rozwiązania. W tej chwili na przykład telewizory firmy Samsung obsługują HDR10 i HDR10+, ale Dolby Vision już nie. Z kolei telewizory marki LG obsługują HDR10 i Dolby Vision, ale bez HDR10+.

co to jest dolby vision
Żródło: Dolby

Czym różni się HDR10 od innych formatów?

Jak już powiedziałem, celem techniki HDR jest zwiększenie realizmu oglądanego obrazu i podniesienie doznań widza na jeszcze wyższy poziom. Jest kilka dróg do tego celu, czyli kilka różnych rozwiązań, za pomocą których można osiągnąć ten cel: HDR10, Dolby Vision, HLG oraz HDR10+, żeby wymienić tylko te najważniejsze. Oto co one oznaczają:

HDR10 ‒ ten format wykorzystuje statyczne, tj. niezmienne dla całego filmu metadane (tj. dodatkowe informacje towarzyszące sygnałowi źródłowemu) i kodowanie 10-bitowe. Materiały zakodowane w HDR10 nie są zgodne ze konwencjonalnymi telewizorami SDR. HDR10 to format, który musi obowiązkowo obsługiwać każdy telewizor HDR, czy odtwarzacz Blu-ray 4K UHD.

Dolby Vision ‒ wykorzystuje 12-bitowe kodowanie sygnału, statyczne metadane w warstwie podstawowej oraz dynamiczne metadane w warstwie rozszerzonej. Dynamiczne metadane oznaczają, że można zakodować inne informacje dotyczące jasności dla sceny A, a inne dla scen B i C i tak w całym filmie. Teoretycznie zapewnia to lepszą jakość obrazu, pod warunkiem, że telewizor poprawnie odczytuje i interpretuje te zmieniające się często metainformacje. W przypadku źródeł sygnału HDR, jakim są np. odtwarzacze Blu-ray 4K UHD, Dolby Vision jest fakultatywny, tj. nieobowiązkowy, co oznacza, że odtwarzacze 4K UHD obowiązkowo muszą obsługiwać HDR10, ale Dolby Vision już nie. Pomimo tego pojawia się coraz więcej modeli urządzeń obsługujących oba ww. formaty.

HLG – to chyba najbardziej oryginalny format HDR, który do niedawna był trochę w cieniu, ale ostatnio zyskuje na znaczeniu i popularności. Opracowany wspólnie przez brytyjską BBC i japońską NHK ten system przeznaczony jest dla nadawców programów telewizyjnych. Wykorzystuje on hybrydowe kodowanie sygnału (ang. hybrid log-gamma, stąd nazwa HLG), co pozwala na odtwarzanie tego typu materiałów na standardowych telewizorach. Inaczej mówiąc, HLG zapewnia wyższą jasność, ale jest też „wstecznie kompatybilny” z telewizorami SDR. Format zyskuje na znaczeniu, także dzięki popularyzacji w aparatach bezlusterkowych jednego z japońskich producentów (np. Sony a6400). Coraz więcej materiałów HLG pojawia się także w serwisie YouTube, jak na przykład poniższy film:

Jeżeli odtworzymy powyższy film na zwykłym komputerze lub smartfonie, będzie wyglądał płasko i mało atrakcyjnie. Dopiero odtworzenie na telewizorze obsługującym HLG pozwala w pełni docenić jakość obrazów zarejestrowanych nocą w japońskim mieście Kawasaki.

Który format jest lepszy: HDR10 czy Dolby Vision?

Odpowiedź nie jest taka prosta jak mogłoby się wydawać. Teoretycznie Dolby Vision ma oczywistą przewagę nad 10-bitowym HDR10: ten pierwszy jest 12- a nie 10-bitowy (lepsza gradacja) oraz wykorzystuje dynamiczne, a nie statyczne metadane jak w HDR10. Jak różnią się odczytane przez odtwarzacz Blu-ray 4K HDR parametry sygnału wejściowego dla HDR10 i Dolby Vision, widać na zdjęciach poniżej.

działanie trybu HDR
Materiał własny
Powyższe zdjęcie pochodzi z filmu Batman. Niżej prezentuję natomiast materiał z Aquamana.
działanie trybu hdr
Materiał własny

Który jest zatem lepszy? W praktyce może być różnie. Na rynku są już dostępne przystępne cenowo telewizory obsługujące Dolby Vision, ale ze względu na konieczność redukcji kosztów oferują one niską jasność maksymalną w trybie HDR: zaledwie 350-400 cd/m^2. Z kolei jeśli odtworzymy ten sam materiał, ale zakodowany w teoretycznie gorszym HDR10, lecz na telewizorze o kilkukrotnie wyższej jasności maksymalnej, tj. większej rozpiętości tonalnej, to oczywiste jest, że na tym drugim obraz HDR będzie wyglądał lepiej pomimo teoretycznie gorszego formatu. Należy pamiętać, że w praktyce wszystko zależy od kombinacji jakości materiału źródłowego oraz wyświetlacza końcowego (telewizora).

Inaczej mówiąc, telewizor „A” o jasności 1000cd/m^2, ale obsługujący tylko format HDR10, będzie oferował wyższą jakość obrazu HDR od telewizora „B” obsługującego (teoretycznie) wszystkie formaty HDR-u, ale wyposażonego w tańsze diody LED zapewniające jasność dwa lub trzy razy niższą od „A”. Niestety, wielu użytkowników o tym nie wie i podczas wyboru telewizora kieruje się obsługą większej liczby formatów, ponieważ akurat tą cechę eksponują producenci. Ci sami producenci nie podają jasności maksymalnej swoich telewizorów 4K HDR, z oczywistych powodów woląc przechwalać się liczbą obsługiwanych formatów.

Podsumowując, lepszy jest telewizor z dobrą lub bardzo dobrą obsługą jednego formatu HDR niż ten, który teoretycznie „obsługuje” (tj. tylko rozpoznaje) wszystkie lub niemal wszystkie formaty, ale brak mu komponentów odpowiedniej jakości, aby mógł pokazać obraz o wysokiej jasności. Co gorsza, sytuacji konsumentów nie poprawia wymyślanie i mnożenie przez producentów różnych pseudo-HDR-ów, o czym mowa poniżej.

active hdr
Źródło: LG

HDR Premium? Active HDR? Co to takiego?

Co oznaczają terminy w rodzaju HDR Premium, czy Active HDR? Czy na przykład HDR Pro jest lepszy od HDR Plus?

Zacznijmy od tego, że oprócz ww. formatów, jak HDR10, Dolby Vision, czy HLG, terminów mających w nazwie „HDR” dużo więcej, jak na przykład:

  • Active HDR,
  • HDR1000,
  • HDR1500,
  • HDR1800,
  • HDR2000,
  • HDR3000,
  • HDR4000,
  • HDR Perfect UHDA,
  • HDR Plus,
  • HDR Premium,
  • HDR Premium 1500,
  • HDR Pro.

Są to terminy czysto marketingowe, często nawet „wyssane z palca”, bez praktycznego znaczenia i nierzadko bez żadnego pokrycia w rzeczywistych parametrach sprzętu.

Na przykład jeden producent stosuje określenie HDR Pro w odniesieniu do własnych telewizorów, które mają maksymalną jasność zaledwie… 350 cd/m^2. Z drugiej strony profesjonaliści od HDR nie używają ekranów o luminancji (jasności) niższej niż 1000 cd/m^2. Oznacza to, że tzw. HDR Pro z profesjonalnym HDR-em ma niewiele wspólnego. To po prostu czysty marketing.

HDR PRO
Źródło: LG

Wybierając telewizor warto pamiętać, o tym, że to właśnie producenci prześcigając się w zachwalaniu zalet swoich telewizorów, przez stosowanie „marketingowego bełkotu” sami przyczyniają się do zamieszania wśród konsumentów.

Co to jest HDR10+?

Słyszałem, że najnowszym formatem HDR jest HDR10+? Czy to oznacza, że jest on najlepszy?

Nie zawsze nowe jest lepsze, choć często tak jest. HDR10+ powstał z inicjatywy kilku producentów telewizorów (Samsung, Panasonic) oraz wytwórni filmowych jako alternatywa dla Dolby Vision. Z założenia oferuje to samo co 12-bitowy Dolby Vision, ale w przeciwieństwie do niego producent sprzętu nie musi płacić firmie Dolby tantiem od każdej sztuki wyprodukowanego urządzenia, bowiem HDR10+ jest bezpłatny. Wbrew temu, co twierdzi jeden z poradników dostępny w krajowym internecie, HDR10+ pozwala nie tylko na 12-bitowe, lecz nawet na 16-bitowe kodowanie sygnału.

telewizor z hdr10+
Żródło: Samsung

Czym są metadane HDR?

Są to dodatkowe dane towarzyszące materiałowi źródłowemu, które niosą ze sobą informację o parametrach wyświetlacza użytego do masteringu (czyli przygotowania filmu) oraz o średnich i maksymalnych poziomach jasności. Przykład metadanych dla filmu „Aquaman” odczytanych przez odtwarzacz Blu-ray 4K HDR pokazuje poniższe zdjęcie:

metadane hdr
Materiały własne

Telewizor może te metadane zaakceptować i dopasować do nich wyświetlany obraz – tak robi większość producentów. Są też i tacy, którzy ignorują metadane, często nawet z dobrym skutkiem, ale to dość skomplikowany temat na oddzielny artykuł.

Czy warto kupić telewizor z HDR?

Mój obecny telewizor jest dla mnie wystarczająco jasny. Czy jeśli kupię telewizor z HDR to obraz nie będzie zbyt jasny i nie będzie mnie po prostu oślepiał? Czy to oznacza, że nic nie zyskam kupując telewizor z HDR?

W HDR-ze nie chodzi o to aby kogokolwiek oślepiać. HDR jest sposobem na przekazywanie obrazów zawierających większą ilości informacji. Konwencjonalne telewizory LCD z podświetleniem LED w cenie do 3000 zł oferują maksymalną luminancję zazwyczaj na poziomie 200-400 cd/m2. Z kolei najbardziej zaawansowane ekrany HDR mogą wyświetlić obraz o jasności nawet kilkukrotnie wyższej. Podkreślam słowo „mogą”, ale nie muszą, wszystko bowiem zależy od sygnału.

Dla przykładu weźmy film przyrodniczy, w którym reżyser pokazuje piękno lasu, kierując kamerę na liście drzew, przez które przebijają jasne promienie słońca. Telewizor SDR nie będzie w stanie pokazać tego w przekonujący sposób, natomiast na dobrym telewizorze z obsługą HDR promienie słońca sprawią, że na chwilę zmrużymy oczy. Tak samo będzie z odbiciami słońca od tafli wody, czy reflektorami auta w środku nocy. W technice HDR chodzi przede wszystkim o bardzo jasne efekty zlokalizowane na małej powierzchni, nie zaś o oślepianie użytkownika, choć oczywiście w teorii jest to możliwe – wszystko zależy od wizji twórcy dzieła filmowego.

Gdzie szukać treści HDR?

Źródłem materiałów HDR są, w kolejności od najlepszych:

  • pliki multimedialne,
  • płyty Blu-ray 4K UHD,
  • specjalistyczne serwisy streamingowe jak Netflix, Prime Video itd,
  • YouTube, Vimeo itp.

Pliki multimedialne mogą mieć dużo większą gęstość sygnału od tego z płyt 4K UHD, dlatego postawiłem je na pierwszym miejscu. Poza tym wiele plików demo 4K HDR dostępnych jest bezpłatnie w internecie.

Jakie telewizory są najlepsze do HDR-u?

Choć jest to pytanie na osobny obszerny artykuł, nie ma na nie jednoznacznej odpowiedzi. Telewizory OLED oferują jasność niższą od najlepszych LCD, ale ze względu na możliwość kontroli emisji światła na poziomie subpiksela potrafią dużo lepiej lokalizować efekty HDR. Z kolei zaawansowane telewizory LCD wyposażone w wielostrefowe podświetlenie o dużej mocy mają jasność kilkukrotnie wyższą od OLED-ów (np. 2000 cd/m^2 zamiast 700 cd/m^2 w typowych OLED-ach). 

Problem w tym, że nawet posiadając kilkaset stref wygaszania, elcedeki nie są w stanie tak precyzyjnie lokalizować efektów HDR, jak OLED-y 4K mające ponad 33 miliony elementów generujących światło. Jak powiedział mi jeden z czołowych japońskich inżynierów, zapytany o to, który jest lepszy: „OLED? LCD? One są po prostu inne”.

Jaka powinna być jasność telewizora 4K HDR?

Jaką jasność powinien mieć telewizor 4K HDR dla Kowalskiego, który chciałby zobaczyć efekt HDR, ale za niego nie przepłacać?

Większość tzw. „telewizorów 4K HDR”, które dominują na rynku nie przekracza 350-380 cd/m^2. Moim zdaniem, aby nabyć coś wymiernie lepszego od pseudo ha-de-er-owej masówki (choć nadal dalekiego od prawdziwego HDR-u) warto rozejrzeć się za ekranami o jasności co najmniej 500 cd/m^2. Krótki ranking 55-calowych telewizorów 4K HDR i ich jasności przedstawia tabela poniżej:

realna jakość telewizorów w trybie HDR
Materiały własne