視聴履歴を利用したパーソナライズもデモ
<NHK技研公開>地デジ1chで4K 2本と2K 1本の伝送実現/最新コーデックVVCの多彩な利用方法とは
NHK放送技術研究所が研究・開発している最先端技術を一般公開するイベント「技研公開2022」が5月26日から5月29日まで開催される。これに先立ってプレス向け公開が行われ、テレビに関連する様々な最新技術が披露された。本稿では、地上デジタル波でも4K放送を実現する符号化技術などについてレポートする。
現在、日本のテレビ放送は2Kの地デジ/BS/CSと、BS/CSの4Kという構成になっている。NHK技研では、地デジでも4K放送を実現させるための技術を長年研究している。
そのためのひとつが、最新のコーデック「VVC(Versatile Video Coding)」を用いること。現在のBS4K放送が採用しているコーデックのHEVCよりも圧縮率を高められるため、1つのチャンネル(6MHz)で4Kコンテンツ2本と2Kコンテンツ1本を伝送できる。
また、VVCでは複数の映像をマルチレイヤーで符号化することも可能。ベースレイヤーで2Kコンテンツを、エンハンスメントレイヤーで2Kコンテンツと4Kコンテンツの差分データを伝送し、4Kコンテンツは2Kとの差分から計算することで、より効率的に大容量データを伝送できる。
また、マルチレイヤー符号化は例えば、ベースレイヤーで放送データを、エンハンスメントレイヤーで字幕や手話CGなどのデータを伝送するなどといった使い方も。そうしたエンハンスメントレイヤーの情報のオン/オフスイッチをテレビリモコンやアプリに用意して、ユーザー各自が自分の環境に応じて利用するなどといったこともできる。
今回、技研では、H.266/VVCに準拠したリアルタイム映像復号装置(デコーダー)を開発。同デコーダーでは、VVCの映像符号化信号から表示デバイスの解像度に適した映像や、必要に応じて補助的な映像を取り出すことができる。
加えて、動画配信サービスで利用が進むメディアフォーマットである「CMAF」(Common Media Application Format)によって伝送されたVVC信号にも対応。技研では、4Kと8Kの2つの解像度の映像をマルチレイヤープロファイルにより圧縮符号化し、CMAFで伝送した信号を本装置で初めてリアルタイムに受信、復号して、4K、8Kそれぞれのディスプレイに適した品質で出力できることを初めて確認したという。今後は、実用化に向けて国内標準化の取り組みを進めていく。
音声ではオブジェクトベース音響に対応したMPEG-H 3D Audioを利用。背景音やナレーション、効果音や音楽などの素材音声を個別に符号化し、番組を構成する情報をメタデータとして放送することで、言語差し替えや聞きやすさの調整など、音声を視聴者の好みに応じてパーソナライズすることが可能になる。
そのほか、スマートフォンやタブレットなど放送チューナーのない端末でもテレビのコンテンツを楽しめるように、宅内IPネットワークを利用して配信するホームゲートウェイも開発。放送と通信を連携させることで、より高度なサービス提供を目指している。
パーソナライズという点で、視聴履歴などのユーザーデータ活用についても展示が行われた。個人データを一手に扱うパーソナルデータストア(PDS)が存在し、テレビ局や配信サービスがPDSからデータ提供を受ける形にすることで、例えばAというサービスでの視聴履歴をもとにBというサービスでも最適なコンテンツがレコメンドされたり、Aサービスで見ていた作品の続きをBサービスで見るなどといったことも可能になる。なお、もちろんユーザーは自分のデータをどこまで提供するかを設定可能になるイメージだ。
技研公開の会期は前述のとおり5月29日まで。日時指定予約制として入場者数を制限して一般来場も受け付ける。公式サイトから申し込みを受け付けている。
現在、日本のテレビ放送は2Kの地デジ/BS/CSと、BS/CSの4Kという構成になっている。NHK技研では、地デジでも4K放送を実現させるための技術を長年研究している。
そのためのひとつが、最新のコーデック「VVC(Versatile Video Coding)」を用いること。現在のBS4K放送が採用しているコーデックのHEVCよりも圧縮率を高められるため、1つのチャンネル(6MHz)で4Kコンテンツ2本と2Kコンテンツ1本を伝送できる。
また、VVCでは複数の映像をマルチレイヤーで符号化することも可能。ベースレイヤーで2Kコンテンツを、エンハンスメントレイヤーで2Kコンテンツと4Kコンテンツの差分データを伝送し、4Kコンテンツは2Kとの差分から計算することで、より効率的に大容量データを伝送できる。
また、マルチレイヤー符号化は例えば、ベースレイヤーで放送データを、エンハンスメントレイヤーで字幕や手話CGなどのデータを伝送するなどといった使い方も。そうしたエンハンスメントレイヤーの情報のオン/オフスイッチをテレビリモコンやアプリに用意して、ユーザー各自が自分の環境に応じて利用するなどといったこともできる。
今回、技研では、H.266/VVCに準拠したリアルタイム映像復号装置(デコーダー)を開発。同デコーダーでは、VVCの映像符号化信号から表示デバイスの解像度に適した映像や、必要に応じて補助的な映像を取り出すことができる。
加えて、動画配信サービスで利用が進むメディアフォーマットである「CMAF」(Common Media Application Format)によって伝送されたVVC信号にも対応。技研では、4Kと8Kの2つの解像度の映像をマルチレイヤープロファイルにより圧縮符号化し、CMAFで伝送した信号を本装置で初めてリアルタイムに受信、復号して、4K、8Kそれぞれのディスプレイに適した品質で出力できることを初めて確認したという。今後は、実用化に向けて国内標準化の取り組みを進めていく。
音声ではオブジェクトベース音響に対応したMPEG-H 3D Audioを利用。背景音やナレーション、効果音や音楽などの素材音声を個別に符号化し、番組を構成する情報をメタデータとして放送することで、言語差し替えや聞きやすさの調整など、音声を視聴者の好みに応じてパーソナライズすることが可能になる。
そのほか、スマートフォンやタブレットなど放送チューナーのない端末でもテレビのコンテンツを楽しめるように、宅内IPネットワークを利用して配信するホームゲートウェイも開発。放送と通信を連携させることで、より高度なサービス提供を目指している。
パーソナライズという点で、視聴履歴などのユーザーデータ活用についても展示が行われた。個人データを一手に扱うパーソナルデータストア(PDS)が存在し、テレビ局や配信サービスがPDSからデータ提供を受ける形にすることで、例えばAというサービスでの視聴履歴をもとにBというサービスでも最適なコンテンツがレコメンドされたり、Aサービスで見ていた作品の続きをBサービスで見るなどといったことも可能になる。なお、もちろんユーザーは自分のデータをどこまで提供するかを設定可能になるイメージだ。
技研公開の会期は前述のとおり5月29日まで。日時指定予約制として入場者数を制限して一般来場も受け付ける。公式サイトから申し込みを受け付けている。