4Kモニタが欲しいのだけれど知れば知るほどHDRの意味がわからなくなる

Zen2に向けてパソコン環境の総入れ替えを検討しています。
今すぐにでも恩恵がある4Kモニタへ買い換えようとしているのですが最近流行りのHDRというモノについて知識が無いので調べていました。
知れば知るほどHDRの存在理由が判らなくなりました。

この記事は私がPC用4Kモニタを買うためのメモ書きです。頭の整理をするために書いています。

私のメインモニタはRegza 27ZP2 です。Sandy Bridgeと同じく8年を越えようとしています。ビデオ編集やカメラのRaw現像などをするには解像度が足りず窓を並べられません。そろそろ4Kモニタへ買い替えたいです。この期間で液晶モニタの性能もかなり改善されているでしょう。

4Kモニタや4Kテレビを買おうと思うと"HDR"というキーワードが目に入るでしょう。4Kというキーワード以上に綺麗になるような宣伝文句がたくさん溢れています。いったい何者?
という事で調べていました。

HDRって何?

HDRはHigh Dynamic Range(はい・だいなみっく・れんじ)の略だそうです。テレビ業界の前にカメラ業界で流行っていた言葉ですね。カメラ好きな方はなんとなく理解できているでしょう。
ダイナミックレンジとは暗い所と明るい所の差(比)という意味です。それが高い。つまり、今までより暗い所、今までより明るい所を映せる(写せる)という意味です。

テレビの世界では"HDR10"という規格が基本になるようです。

HDRに対し今までのものは"SDR"Standard Dynamic Range(スタンダード・ダイナミック・レンジ)と呼ぶそうです。

HDRとSDRの違い

今までのSDRと流行りのHDRは何が違うのでしょうか?

映像の暗い・明るいは映像信号の値で表現されています。大雑把に1が真っ暗、100が一番明るい値です。この1~100は濃淡の度合いを表しています。

テレビではこの映像信号を実際に画面に表示します。テレビは完全な暗黒を表示できません。太陽の眩しさを再現することもできません。
100という映像信号が入った時にどんな明るさで表示するか? ここにHDRとSDRの違いがあります。

HDRでは最大値100という映像信号が入ってきたら10,000nit(カンデラ/平方メートル)という輝度で表示すると決めました。実際の明るさを表す単位と関連付けられたのです。
SDRでは実際の明るさと関連付けはありません。規格上を100nitという値があるようですが使われることのない規格です。実際の明るさと関連付けが無いならどうやってテレビは表示しているかというと、テレビで表示できる明るさというだけです。テレビの明るさは自分で調整できますよね。夜は暗く、昼は明るく。つまり決まりはありません。

nit 輝度ってどのくらい?

nitとかいう明るさの単位を付けられてもどのくらいだかピンときません。太陽が10の9乗nit、青空が数千~8,000nit、月が約3000nitだそうです。
ブラウン管テレビが100nitほど、最近のモニタは300nitほど、最新の高価なテレビは1000nitほど、iPhoneの画面は500nitほど、屋内広告用モニタで2000nitほど、屋外用広告モニタで5000nitほどのようです。

月ってこんなに明るかったのですか?昼間に満月が見える日があるのですからこんなものなのでしょうね。
それに比べてテレビの明るさの暗いこと。直射日光が当たる部屋でテレビに何が映っているか見えなくても不思議ではありません。

HDRの映像信号が輝度と関連付けられたと言っても、現実の明るさと関連付けられた訳ではありません。満月は必ず3000nitの映像信号にしろと言っている訳ではありません。
例えば、映像の製作者に1000nitまで表示できるテレビだとして映像を作れと言っているのです。逆に1000nitまで表示できるつもりで映画を作ったから1000nit表示できるテレビで見てねと言えるのです。
SDRでは輝度を誰も決めていませんし、決めても守る術はありませんでした。

結局HDRのメリットって何?

今までの話はHDRの基本的な考え方です。なぜHDRなんて言うものが出てきたかというと、カメラの性能が良すぎて暗い所と明るい所の情報を捨てて使っているのですが、テレビの性能が上がりとても明るい映像を出せるようになって来たからもっと明るい部分も使おうというのです。カメラの捨てていた映像部分も使えたら良いですよね。
今後のテレビはより明るい表示も可能になると思われています。この明るい部分をきちんと使えるように映像信号を決め直したのがHDRです。
基本的に今までのテレビより明るい表示ができるようになったテレビで見る必要があります。

映像信号と実際の明るさとの関係が決まっているので、映像制作者が作った映像が忠実にテレビへ伝わるようになりました。今まで表現できなかった明暗の差を使った表現を映像クリエータが提供してくれるようになるでしょう。

HDRのデメリット

俺、暗い部屋でしかテレビ見ないし眩しくて仕方ないんだけど? 明るさ暗くしていい?
私、西日の当たる昼間でしかテレビ見れないんだけど、何が映ってるか見えない。
制作側が明るさを決めても見る環境によって眩しい、暗いはHDRになっても残ります。当然テレビの明るさ調整をできるようにするでしょう。

最大500nitしか表示できないテレビに10,000nit前提の映像信号を入れたら500nit以上は真っ白に表示されることになります。それではデメリットにしかならないので実際は500nitを超える部分を圧縮してある程度明暗がわかるようにテレビ側で処理するでしょう。

HDR表示を設定したモニタでSDRのビデオを表示するとどうなるのでしょうか?
SDRの幻の規格 100nitがゾンビのように蘇ります。SDRのビデオは最大100nitの映像信号として処理されるので暗く表示されます。
これでは不便なので100nit縛りを無視するか違う明るさにして表示するモードがあるでしょう。

明るさなんてわからないけど、撮った映像を今すぐライブ配信したいんだけど。真っ暗になったり、真っ白になったりしないかな?時間も無いしそのまま送ればいいよね。→HLG方式というHDRもあります。

じゃあ、明るさを決めた意味って何? SDRと同じじゃん!

まとめ

この記事には間違えや勘違いが多く含まれているでしょう。
テレビ・モニタのHDRという新しい規格があり何だか判らないので4Kモニタを買えずにいます。やたらHDR押しを見かけるので調べてみましたが調べれば調べるほど意味がわからなくなります。

8bitだろうが10bitだろうがHDRとビット深度とは関係がありません。明暗の差がより広い範囲を使うHDRは10bit以上の方が良いことは確かです。

カメラの世界のHDRと同じで、今まで捨てていた明るい部分と暗い部分を無理やり圧縮してプリントあるいは表示しているのは判りました。印画紙やモニタの性能が上がった訳ではありません。カメラ側の性能が上がりすぎ捨てる情報が多くて困っているのです。
テレビ・モニタの性能が徐々に上がってはいますが、劇的な変化はしていません。

映像制作側へ絵作りの考えを変えさせるのがHDRの実際のメリットなのかもしれません。

HDR対応というだけのモニタは信号が入力できるという意味しか無いでしょう。SDRよりもモニタの表示できる明るさ範囲をフルに使えない事になるのでかえってコントラストの低い映像になる事が予想されます。コントラストを低下させないためにはHDR信号もSDRと同じように扱う事になります。たぶんこの方が綺麗に見えます。

HDRの恩恵を受けるにはテレビ・モニタの最大輝度が明るい必要があるでしょう。少なくともDisplayHDRという規格に沿ったモニタを買えば良さそうです。
今のモニタの価格と性能からするとDisplayHDR600が現実的バランスの取れた製品と思われます。

買っちゃいました!
関連記事:DisplayHDR600対応のLG 32UL750-Wを買いました


コメント

最近のコメント

Threaded Recent Comments will be here.