PR評論家・高橋敦が魅力をレポート
4K/ハイレゾ配信システム「Live Extreme」を「あえてのDAP視聴」。ウォークマンで試してみた
前述のようにスペック面の時点ですでに、
●最大PCM 384kHz/24bit、DSD 5.6MHz
●最大8ch
と強烈。最大8chは、「サラウンド5.1ch+ヘッドホン向けバーチャルサラウンド2ch」や「サラウンド5.1ch+コメンタリー2ch」のような柔軟な振り分けも可能とのこと。例えば後者は試写会イベントなどに採用されると面白そうだ。
だが、Live Extremeの「オーディオ・ファースト設計」の真髄は、スペック面よりむしろこちら、
●音声と映像の同期を映像ではなく音声側のクロックを基準に行う
の方だろう。
クロックとは、映像や音声など時間軸に沿って再生されていくデータのその時間軸の基準となる、一定周波数の信号のこと。その信号の精度は、特にオーディオ処理においては、再生品質に少なからず影響する。
しかし従来型の動画配信では、映像と音声は、映像データ側のクロックを基準に、映像データを主としてそこに音声データを埋め込む形で、動画データとしてひとつにまとめられてからストリーミング配信サーバーに送られる。この時点で音声側の処理に無理が生じることは否めない。
さらに、音声に比べてクロックの乱れに対する耐性が強い映像データ向けのクロックは、オーディオ用クロックと比べてその乱れを表す数値が一桁も大きかったりする。そんなものに音声側のデータも同期されてしまうのだから影響はさらに大きくなるわけだ。
対してLive Extremeは、映像データと音声データをひとつにまとめず、それぞれ独立したクロックで処理。なので音声データには音声用の高精度クロックを使用できる。
しかしそれだけでは、音声と映像の処理が同期していないため音声と映像にズレが生じてしまう。
そこでLive Extremeは、映像のフレーム数とオーディオのサンプル数を常に監視。ズレを検知した際に映像側のフレームを間引いて速める、またはホールドして遅らせることで、音声との同期を維持する仕組みを用意。映像側のみを操作する仕組みなので、音声側には何の損失も生じない。
また映像側への影響もほぼ皆無。ここで生じる音声と映像のズレはおおよそ18分ごとに1フレームあるかないか程度。1秒30フレームとして32,400フレームに対してたった1フレームのズレだ。それを調整したところで人間の目に検知できる影響は生じない。
音質優先設計が画質まで向上させる!?
そしてLive Extremeは加えてもうひとつ、ユーザーに届けられる音声のクオリティを大きく引き上げる仕組みを持っている。
●配信サーバーでの再圧縮を行わない
ことだ。
従来型の動画配信システムは、ライブ配信の現場から最高画質&最高音質エンコードで送り出されてきた動画データを、視聴者側の回線状況などに合わせて随時、配信サーバーが適切なデータ量となるフォーマットに再エンコードして配信する形となっている。おかげで回線やサーバーが混雑しても配信は途切れないわけだ。
しかし現場からサーバーへ送る際と視聴者へ送る際の二重エンコードは、動画品質に決定的なロスを生じさせてしまう。
対してLive Extremeは、現場でエンコードされサーバーに送られた音声と映像のデータを再エンコードなしで視聴者に配信する仕組みを採用。再エンコードによる音質ロスは一切生じない。
……ん?「音声と映像のデータを再エンコードなし」なら映像クオリティもアップするのでは?
お気づきになられましたか?実はLive Extreme、音質優先設計のおまけで画質まで向上するんです……
DAPでLive Extreme! その音質はいかに?
では今回の本題、DAPでLive Extremeの体験レビュー!DAPは編集部手配でSony「NW-WM1ZM2」を用意。そちらに標準インストールのウェブブラウザでLive Extremeの公式サイトに掲載の視聴サンプルを再生開始すると……
次ページDAPでもPCでもLive Extremeの音は感動的!