HDR в видео: долгожданный прорыв или

Wed, 11 May 2022 20:48:44 +0300 Wed, 11 May 2022 20:48:44 +0300

HDR в видео: долгожданный прорыв или…?


Не успели мы привыкнуть к терминам 4К и Ultra HD, дисплеям с квантовыми точками и OLED, как производители объявили о приходе новой технологии в сфере видео, которая непременно затмит все предыдущие. Это HDR. Ведущие мировые издания уже напророчили ей блестящее будущее, поскольку она, де, выведет качество изображение на недосягаемый уровень для «старых» устройств. Но так ли это на самом деле? Давайте разбираться!



Прежде всего, давайте разберемся с определениями. HDR – это High Dynamic Range, то есть широкий, а точнее расширенный динамический диапазон. Применительно к изображению это выражается в большем диапазоне яркостей между самыми темными и самым яркими полутонами. Изображение с реальным широким динамическим диапазоном выглядит контрастнее и «ярче» обычного, в нем больше деталей, а краски выглядят более насыщенными. Проблема в том, что такое изображение довольно сложно показать на большинстве средств отображения, будь то фотобумага, дисплей с электронными чернилами, компьютерный монитор, телевизор или проекционный экран, потому что их реальный динамический диапазон не столь велик, как хотелось бы. Чтобы создать фотографию с широким динамическим диапазоном обычно два или три снимка объединяют в фоторедакторе вроде Lightroom или Photoshop так, чтобы показать детали, неизбежно пропадающие в тенях и на свету в одном фото (в смартфонах весь процесс происходит автоматически). При грубом использовании настроек результат получается очень неестественным, поэтому мало кому нравится.

В видео два кадра никто не объединяет – это невозможно, да и не нужно никому. Под расширенным динамическим диапазоном там понимается совсем другое, а именно увеличение визуальной контрастности изображения с улучшение детальности, проработки в тенях, большим количеством полутонов на цветовых переходах и т.д. Другими словами HDR обеспечивает визуальное улучшение изображения практически по всем параметрам, в чем воочию могли убедиться все посетители трех последних крупнейших выставок в Берлине, Лас Вегасе и Амстердаме. Как это достигается? Это и есть самое интересное в данном вопросе.



В рекламных материалах производители намеренно дают по этому поводу очень мало информации, говоря лишь о том, что используется видеосигнал с 10-битным кодированием, который будет доступен на дисках в стандарте UHD Blu-ray и в трансляциях 4К-контента через видеосервисы вроде Netflix, Amazon и проч. Кроме того, особо подчеркивается, что такой видеосигнал передается между устройствами только через разъемы HDMI 2.0 c протоколом обмена информации HDCP версии 2.2. Эту весьма скудную информацию радостно перепечатали многие западные и некоторые наши издания, назвав «технологию HDR» революционной, ведь в «обычном» видео сигнал как известно пишется в 8-битной форме. Это, мол, и обеспечивает беспрецедентное качество изображения. Более того, HDR якобы позволит увеличить яркость телевизоров в 2-2,5 раза – динамический диапазон ведь шире!

HDR – это High Dynamic Range, то есть широкий, а точнее расширенный динамический диапазон. Применительно к изображению это выражается в большем диапазоне яркостей между самыми темными и самым яркими полутонами. Изображение с реальным широким динамическим диапазоном выглядит контрастнее и «ярче» обычного, в нем больше деталей, а краски выглядят более насыщенными. Проблема в том, что такое изображение довольно сложно показать на большинстве средств отображения, будь то фотобумага, дисплей с электронными чернилами, компьютерный монитор, телевизор или проекционный экран, потому что их реальный динамический диапазон не столь велик, как хотелось бы.
Их можно понять. Многие на собственном опыте убедились, что увеличение "битности" сигнала в аудио дает вполне объективный прирост качества звучания, ощутимый даже при использовании карманных плееров в сочетании с качественными внутриканальными наушниками, не говоря уже о дорогих стационарных системах. Однако в видео такой фокус невозможен, по крайней мере в обозримом будущем. Видеосигнал для записи на диски и тем более для трансляций любыми средствами ужимается почище МР3 с реальным уменьшением разрешения по двум из трех каналов цветности в 4 раза. Вам знакомо такое обозначение «4:2:0», которое фигурирует в описании свойств видеосигналов всех бытовых носителей и файлов HDTV и IPTV? Оно как раз и означает, что цвета в видео записываются с такими потерями. Кодирование в 4:2:2 и 4:4:4 применяется только на стадии мастеринга и в быту не используется вообще.



Более того, для эффективного сжатия 4К-видео без артефактов пришлось даже внедрять новый кодек Н.265, потому что применяющийся в «обычных» Blu-ray алгоритм H.264 дает шумы, сравнимые с размером пикселя. Если же видео реально кодировать в разрядностью 10 бит в каждом из трех цветовых каналов (RGB или Y-Cr-Cb), то битрейт неизбежно вырастет в 4 раза, что для сохранения на дисках и тем более для трансляций любого рода неприемлемо.

Впрочем, для улучшения качества изображения этого и не нужно. Причин несколько. Во-первых, мы, то есть наше зрение, не в состоянии различить в четыре раза больше градаций яркости в одном условном кадре одновременно. Мы не различаем одновременно даже 256 градаций, которые обеспечивает 8-битное кодирование видео – для этого нам нужно либо повышать, либо понижать общую яркость всего поля. Все богатство полутонов в природе мы различаем благодаря подвижной радужке – динамической диафрагме в наших глазах, а так же адаптивной «настройке» палочек (фоторецепторов) в сетчатке. Во-вторых, в мире не существует ни одного дисплея или другого устройства, которое бы обеспечивала передачу 1024 градации яркости одновременно, даже прототипов нет. Да и не нужны такие дисплеи по означенной выше причине.



Как же тогда обеспечить передачу видео с расширенным диапазоном имеющимися средствами? Да также, как это делалось раньше! Нужно изменять общую яркость всего кадра. Только раньше все устройства это делали не слишком корректно. Чтобы визуально повысить контрастность, а с ней и проработку полутонов в тенях и на светлых участках, телевизоры меняли яркость подсветки (свечения ячеек в плазмах), а проекторы – диафрагму, принимая в расчет среднюю яркость видеосигнала в кадре, в результате чего всегда получался некое компромиссное изображение, мало похожее на реальность. Технология HDR и призвана устранить этот компромисс.

Видеосигнал для записи на диски и тем более для трансляций любыми средствами ужимается почище МР3 с реальным уменьшением разрешения по двум из трех каналов цветности в 4 раза. Вам знакомо такое обозначение «4:2:0», которое фигурирует в описании свойств видеосигналов всех бытовых носителей и файлов HDTV и IPTV? Оно как раз и означает, что цвета в видео записываются с такими потерями. Кодирование в 4:2:2 и 4:4:4 применяется только на стадии мастеринга и в быту не используется вообще. Более того, для эффективного сжатия 4К-видео без артефактов пришлось даже внедрять новый кодек Н.265, потому что применяющийся в «обычных» Blu-ray алгоритм H.264 дает шумы сравнимые с размером пикселя. Если же видео реально кодировать в разрядностью 10 бит в каждом из трех цветовых каналов (RGB или Y-Cr-Cb), то битрейт неизбежно вырастет в 4 раза, что для сохранения на дисках и тем более для трансляций любого рода неприемлемо.
Протокол HDCP версии 2.2 позволяет передавать дополнительные метаданные для изображения, в которых и будет закодирована информация о динамически меняющейся экспозиции (яркости) кадра и гамме (считай контрастности). А телевизор или проектор в свою очередь, пользуясь этими данными, могут мгновенно и, что главное, оптимально подстраивать изображение, как это происходит в Photoshop. В итоге и получается идеальная картинка практически на любом дисплее или экране. Визуально она кажется более контрастной и яркой, хотя в реальности ни предельная контрастность, ни яркость дисплеев не повышается, тем более в 2,5 раза до мифических 1000 нит, как пишут некоторые издания. Это просто невозможно. ЖК-дисплеи и мониторы фактически достигли своего пика развития – повышается только разрешение, а контрастность и яркость остаются на уровне 10-летней давности. Распределенную подсветку из светодиодов, которая кардинально повышает контрастность, применяют очень редко из-за ее высокой цены и желания предельно уменьшить толщину корпуса телевизоров. А значительно повышать яркость просто за счет мощных светодиодов просто нельзя из-за проблем с охлаждением. Существенно увеличить яркость OLED-дисплеев тоже нельзя – они будут быстрее деградировать, что неприемлемо. Да и не нужно это вовсе. Потому что для получения качественного изображения важны не предельные характеристики, а тонкая настройка. И эффектное появление HDR в видео это наглядно показывает.

Юрий Глушков

Редакция Hi-Fi.ru