Technologiczne

Ciekawostki z Tech świata

Techonlogia HDR - telewizory i konsole
Obraz i dźwięk Sprzęty

Czy warto kupić konsolę i telewizor z technologią HDR?

Technologia HDR staje się coraz to bardziej popularna. Co kryje się jednak pod tym tajemniczym skrótem, którego producenci używają mówiąc nie tylko o aparatach, ale też konsolach i telewizorach? Dziś postaram się przybliżyć Wam temat technologii HDR (High Dynamic Range) towarzyszącym dwóm ostatnim z wymienionych urządzeń.

Co to jest technologia HDR?

Telewizory wspierające technologię HDR są już od jakiegoś czasu dostępne na rynku, ale większe zainteresowanie tematem przyniosła dopiero premiera zmodernizowanych konsol Sony i Microsoftu – PlayStation 4 Pro oraz Xboxa One S. Właściwości ekranu to bowiem jedna kwestia, ale to, co możemy na nim zobaczyć ma prawdziwe znaczenie. Dlatego też o ile telewizor może być przystosowany do odtwarzania materiałów przygotowanych z myślą o technologii HDR, ale to rola twórców gier i filmów, aby przygotować odpowiedni materiał.

Ideę przyświecającą stworzeniu technologii HDR było zapewnienie użytkownikom takich wrażeń wizualnych, jakich doświadcza w codziennym życiu dzięki swoim oczom i postrzeganiu rzeczywistości.

Natura jest nam w stanie dostarczyć absolutnej czerni (0 nitów), światła księżyca (0,01 nitów), światła żarówki (100 nitów), rozproszonego światła słonecznego (1 milion nitów) i wreszcie słońca (1,6 miliardów nitów). Ludzkie oko jest w stanie zarejestrować światło od około 0,01 nitów do 10 tysięcy nitów i to ideał, do jakiego zmierza technologia HDR.

Tymczasem standard kinowy oddaje od 0,01 nitów do około 60 nitów, a standardowe telewizory od 0,1 nitów do 100 nitów. Wszystko sprowadza się do tego, że gdy spojrzymy w stronę słońca w upalny dzień, to zostaniemy oślepieni. Widzimy też różnicę w jasności księżyca, żarówki, halogenu i światła rozproszonego. Niestety telewizory – przynajmniej na razie – mają problem z osiąganiem bardzo niskich i bardzo wysokich wartości jasności, a ponadto słabo różnicują poziom natężenia światła.

Technologia HDR do zdjęć i filmów

Producentom gier i filmów zależy, aby w toku przygotowywania i postprodukcji materiałów dynamika światła jak najmniej traciła na swojej wartości względem tego, co jesteśmy w stanie zobaczyć w rzeczywistym świecie. Takie materiały musimy zaś oglądać na odpowiednich telewizorach, które będą w stanie pokazać bardzo jasne punkty, a jednocześnie zachować te wyjątkowo ciemne – oczywiście bez osiągania efektu „przepalenia” obrazu i zamiany czerni w szarość, co możemy osiągnąć zmieniając ustawienia kontrastu i jasności nawet na zwykłym filmie oraz zdjęciu.

Jeżeli robicie zdjęcia smartfonem, to na pewno wiecie, gdzie leży problem. Zamiast chmur na jasnym jesiennym niebie widzimy białą połać. Gdy ustawimy ostrość na niebo, to reszta obrazu robi się zaś zbyt ciemna. Technologia HDR ma pozwolić tego uniknąć, choć w przypadku gier i filmów jest to o wiele większe wyzwanie, niż przy fotografii.

Technologia HDR w telewizorach

Problem dotyczący zakupu telewizora wspierającego technologię HDR jest taki, że wielu producentów – szczególnie mniej renomowanych – bazuje na spełnieniu wymogów standardów, jakie same sobie określiło. Warto więc zwracać uwagę przede wszystkim na modele, które otrzymały certyfikat UltraHD Premium przyznawany przez UHD Alliance.

Należy też zwrócić uwagę na fakt, że mamy na rynku do czynienia z dwoma standardami charakteryzującymi się wysokim kontrastem i dynamiką światła.

Pierwszy zakłada, że telewizor musi wyświetlić jasność co najmniej 1000 nitów i pokazać też najciemniejsze punkty przy jasności 0,05 nitów (przede wszystkim ekrany LCD).

Dla drugiego standardu te wartości to zaś 540 nitów i 0,005 nitów (przede wszystkim ekrany OLED).

Właściwości technologii HDR

Technologia HDR ma jednak związek nie tylko z jasnością, ale też z kolorem. Warto więc znowu zacząć od możliwości ludzkiego oka, które jest swego rodzaju ideałem, który stanowi wyznacznik dla producentów monitorów, telewizorów, rzutników, gier i telewizorów.

Powyżej możecie zobaczyć zakres kolorów, jakie widzi człowiek – model ten jest oczywiście uproszczony i większość z Was nie zobaczy go w taki sposób, w jaki został przygotowany. Wszystko za sprawą tego, że dominująca część monitorów bazuje na standardzie sRGB/rec.709, choć na przykład graficy i fotografowie wykorzystują zazwyczaj ekrany o szerszej gamie kolorów.

Podobnie sprawa wygląda w kwestii iPhone’a 7 oraz nowych MacBooków Pro – w ich przypadku ten „trójkąt” też jest większy, gdyż Apple zastosowało standard DCI-P3.

Co to jest DCI-P3?

No i właśnie DCI-P3 jest tym, czym charakteryzują się telewizory HDR, które otrzymały certyfikat UltraHD Premium. Docelowy plan zakłada zaś osiągnięcie gamy Rec. 2020, choć to na razie relatywnie odległa przyszłość. Reasumując jednak – telewizory z HDR pozwolą nam zobaczyć więcej kolorów, szczególnie odcieni zielonego i błękitnego.

Do tej pory ekrany wyświetlały taką samą barwę dwóch punktów spoza gamy sRGB, które w rzeczywistości różniły się od siebie. Ludzkie oko zobaczyłoby subtelną różnicę między nimi, ale telewizor „spłycał” to do barwy, którą był w stanie wyświetlić.

Oczywiście przestrzeń kolorów to nie wszystko. Ona dotyczy wyłącznie zakresu barw, jaki towarzyszy danemu standardowi. Osobno należy rozpatrzyć kwestię bitów, czyli liczby odcieni, które telewizor wyświetla, jeśli mieszczą się one w gamie kolorów, jakie wspiera.

sRGB vs DCI-P3

W sRGB mamy więc trzy kolory – czerwony, zielony niebieski – i 8 bitów. Każdy kolor przyjmuje więc 2^8 wartości – od 0 do 255, co w sumie daje 16 milionów kolorów. Weźmy jednak dwa punkty – ciemnoszary i jasnoszary. Im więcej bitów, tym więcej odcieni zobaczymy między nimi.

Jeżeli bity będą dwa, to zobaczymy tylko jasnoszary i ciemnoszary. Jeżeli bitów będzie pięć, to zobaczymy jasnoszary, delikatnie jasnoszary, szary, delikatnie ciemnoszary i ciemnoszary. To oczywiście pewne uproszczenie, ale oddaje istotę całego problemu.

Ze względu na fakt, że standard DCI-P3 obejmuje więcej kolorów, to bitów musi być więcej, aby przyjścia między barwami były płynne. Dlatego też standard technologii HDR to nie 8, ale 10 lub 12 bitów. Pozwala to na uzyskanie odpowiednio 2^10=1024 punktów przejścia albo nawet 2^12=4096 punktów przejścia.

Tak więc wyświetlanie kolorów bazuje na pokazaniu trzech wartości. Przy sRGB jasnozielony to będzie (173,255,47), żółty – mieszanina zielonego i czerwonego (255,255,0), a niebieski (0,0,255). Przy większej liczbie bitów – przykładowo 12 – ten sam niebieski miałby zaś współrzędne (0,0,4095), bo z innym wierzchołkiem trójkąta gamy dzieliłoby go więcej odcieni.

Czy warto zainwestować w technologię HDR?

Jeżeli zastanawiacie się nad kupnem telewizora wspierającego technologię HDR, to musicie zadać sobie pytanie, czy macie materiały, które wykorzystają jego potencjał. Odpowiednie filmy, gry, seriale. Już niedługo filmy 4K Blue-ray mają dostarczać takich treści, ale jeszcze nie wiemy, kiedy to nastąpi. Podobnie sprawa wygląda z drugiej strony.

Jeśli myślicie nad kupnem konsoli PlayStation 4 Pro czy Xbox One S, to także należy się zastanowić, czy dysponujecie telewizorem opartą na technologii HDR, który umożliwi Wam wykorzystanie nowej technologii. Co więcej, na razie kilka gier na to pozwala, więc sam zakup nowej konsoli także nie gwarantuje zmian. Z całą pewnością wszystko jednak zmierza w kierunku rozwoju technologii HDR, dlatego już dziś warto się nią zainteresować i dokonać przyszłościowego wyboru.

Treść z archiwalnej wersji strony, stworzona przez autora bloga.

1 KOMENTARZ

ZOSTAW ODPOWIEDŹ

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *