ニュース
HOME > ニュース > AV&ホームシアターニュース
公開日 2023/05/30 20:31
アクセシビリティー支援技術も多数公開
<NHK技研公開>テレビ放送/ネット配信を取りまとめる放送通信融合技術。視聴アプリのプロトタイプも公開
編集部 : 伴 修二郎
NHK放送技術研究所が最新の研究開発成果を一般公開するイベント「技研公開2023」が、6月1日から6月4日まで開催される。これに先立ち、本日5月30日にプレス向け公開が行われ、様々な最先端技術が披露された。本稿では、Web技術による放送通信融合技術やアクセシビリティー支援技術などを展開する「ユニーバサルサービス」の展示内容を紹介する。
今回初披露となった「Webベース放送メディア」は、「人」「環境」「コンテンツ」をそれぞれ表すデータをWeb標準技術で連携させ、視聴者の嗜好や状況に応じてアプリや配信元を制御するという新たな放送通信融合技術だ。
同社は、昨今テレビ放送に加えて配信サービスなどコンテンツの視聴方法が多岐に渡っていると説明。これにより、特にお年寄りの方などがコンテンツごとに視聴方法を把握するのが難しいとして、このWebベース放送メディアを活用することでその点を簡略化し、放送/配信元を気にせずコンテンツのみを選んで簡単に視聴することが可能になるという。
参考展示されたWebベース放送メディアのプロトタイプは、人/環境/コンテンツのデータを参照・処理することで、場面や目的に応じた方法でコンテンツを届ける視聴アプリケーションと、その動作を支えるデータ連携・処理技術や動画配信技術(クラウドネイティブ配信基盤技術)で構成されている。
実装された視聴アプリケーションには、デバイスの機能や受信環境に応じたコンテンツの取得先を自動決定する「コンテンツ発見技術」を採用。これにより、放送とネットで提供されるコンテンツを、視聴デバイスの違いに囚われずに選択・視聴が行える。
同技術は、放送/ネットの番組チャンネルや放送日時、出演者といったコンテンツの詳細情報と提供用法を表す「コンテンツ発見メタデータ」を用いることで、デバイスごとに放送・ネット上の適切なコンテンツを自動選択できる仕組みによって実現している。
また、これらを実装化する上で、番組情報データ構造の標準化を進めていく必要があるとし、同業者・異業者との協同や、Webのデファクト標準(Schema.orgなど)への対応、メディアに関する独自要件への対応といった、ネット展開に必要な番組情報の要素抽出などを進めていくとのこと。
さらに、将来的な生活環境のスマート化を想定し、様々なサービスのパーソナルデータをユーザーが手元で集約管理し活用する仕組み「パーソナルデータストア(以下、PDS)」と、行動認識技術を活用したシステムも披露した。
会場では、宅内にあるスマート/IoTデバイスを組み合わせて、ユーザーの生活行動に合わせたコンテンツ掲示を行うデモを実施。リビングから玄関、そして車内と、ユーザーが移動する場所に応じて、その場所に適したデバイスから好みのコンテンツが状況に応じて掲示されていた。
近年盛り上がりをみせるメタバース空間における活用例も公開。遠く離れた場所にいる家族や友人と仮想空間の中で集まり、サッカー中継といったリアルタイム放送やコンテンツが視聴できる「【共視聴の空間】バーチャル天皇杯サッカー」が展示された。
また、千葉県の里山にある古民家をモデリングした仮想空間で疑似体験ができる「【体験と学びの空間】バーチャル里山」では、古民家の周辺を自由に歩き回って探索することが可能。虫や魚といった気になるものを調べると、それに関連する放送コンテンツが流れるといった活用事例も紹介されている。
Webベース放送メディアについて、「様々な技術が高度化した将来の世界までを幅広く視野に入れた技術コンセプト」であるとし、今後の展開として、基本的性能から段階的に社会実装されることを想定。まずは初期段階の検証を放送事業者やメーカーなどと連携して進めていくという。
隣接ブースでは、Webベース放送メディアを活用したコンテンツとデータの連携・処理技術について展示。今回は、教育コンテンツから単語間の意味関係を抽出してグラフ構造化する「ナレッジグラフ」を活用し、各コンテンツを「学び」の観点で連携、よりユーザーに興味の広がりを提供するという試作システムが紹介されていた。
また、PDSによるパーソナルデータの自己管理・活用方法として、PDS内のパーソナルデータの可視化機能や、個別のデータごとにアクセス条件を設定して、各データごとに開示する・しないを自身で設定できるPDS管理の試作アプリも紹介する。
一例として、PDS内のSNS履歴をもとにカスタマイズされた番組表サービスを展示。番組表にYouTube視聴データなどのSNS履歴に関連した番組があると、それが番組表内で可視化されるといったカスタマイズの模様が確認できた。
コンテンツの信頼性確保を目的とした「来歴情報提示技術」は、各コンテンツの制作者や編集履歴などの来歴情報をコンテンツに付与するというもの。来歴情報にデジタル署名を付加することで高い信頼性を備え、ユーザーはコンテンツ視聴の際に来歴情報を確認して、信頼度を判断することができる。
放送局による動画配信サービスの安定・低遅延な配信を目的とした「クラウドネイティブ配信基盤技術」では、多様なリニア配信チャンネルの提供や低遅延配信技術によって、より快適なコンテンツ視聴を実現すると説明。
多様なリニア配信の提供方法の1つとして、効率的なストリーム生成・配信技術を紹介。本技術は、世界各地で制作されたライブ番組や収録番組を、テレビ放送のように番組表に従ってネット配信するというもの。クラウド上で生成した配信ストリームを、視聴地域やユーザーの好みに応じて組み合わせて配信する。
「低遅延配信技術」では、ユーザーごとの細かな通信状況から選択した品質のリアルタイム映像を、最新Web通信用API「WebTransport」によってサーバーからプッシュ配信することで、映像を低遅延かつ安定的に配信、視聴することができるという。
アクセシビリティー支援技術ブースでは、視覚・聴覚障害者や高齢者、外国人といった様々な方に、滞りなく放送を伝えるための情報発信技術を公開。テレビ中継の解説音声や字幕、翻訳、手話CGといった、コンテンツの視聴をサポートする様々な技術が展示されている。
スポーツ中継の解説音声を制作・配信するシステムは、主に視覚障害者の方の番組視聴に向けて開発されたもの。従来の手入力に加えて、選手のモーションから読み取る「動作認識処理」と、選手名や数字といった「文字認識処理」から解説テキストを生成可能に。これにより、解説音声の作成に携わるオペレーターの人数も最小限まで削減できるとする。
生成した解説テキストは、音声合成されユーザーのスマートフォンで配信される。受信アプリでは、解説音声の話す速度や発話量といった項目を設定して、ユーザーに届く情報量を調整することもできる。今後は、2025年頃までにオペレーター1人で運用できるシステムの構築を目指すという。
あわせて、主に災害時のニュースなどを想定した、言い間違いや重複する話し言葉を加味して適した言葉にリアルタイムで翻訳する「日英機械翻訳技術」や、「手話CG翻訳生成システム」などを紹介していた。
様々なデバイスで動作するテレビ視聴ロボットの展示も公開。視聴しているテレビ番組の内容に関係する自然な会話を生成し、発話してくれるハードウェアロボットで、このたびスマホやPC上で動作するロボットアプリが開発された。
新たにテレビ視聴時に人が話しそうな文章をロボットに学習させたことで、より自然な発話が可能になったとアピール。また、頭や手足を動かすことで「楽しい」や「悲しい」といった感情表現も行うほか、尻尾を使った動作も取り入れ、ロボットが人に背を向けている状態でも感情が伝わるよう配慮されている。
今後は、2025年頃を目処に、ロボットが人の興味や番組の状況に配慮して動作できるようにする改善アップデートを進めると共に、家庭環境での効果検証などにも取り組み、テレビ視聴ロボットの基盤技術をさらに確立していきたいとのことだ。
技研公開2023は、6月1日から6月4日まで一般公開。3日と4日はファミリー向けに海中VRなどの体験イベントも実施する。
■新放送通信融合技術「Webベース放送メディア」のプロトタイプを開発
今回初披露となった「Webベース放送メディア」は、「人」「環境」「コンテンツ」をそれぞれ表すデータをWeb標準技術で連携させ、視聴者の嗜好や状況に応じてアプリや配信元を制御するという新たな放送通信融合技術だ。
同社は、昨今テレビ放送に加えて配信サービスなどコンテンツの視聴方法が多岐に渡っていると説明。これにより、特にお年寄りの方などがコンテンツごとに視聴方法を把握するのが難しいとして、このWebベース放送メディアを活用することでその点を簡略化し、放送/配信元を気にせずコンテンツのみを選んで簡単に視聴することが可能になるという。
参考展示されたWebベース放送メディアのプロトタイプは、人/環境/コンテンツのデータを参照・処理することで、場面や目的に応じた方法でコンテンツを届ける視聴アプリケーションと、その動作を支えるデータ連携・処理技術や動画配信技術(クラウドネイティブ配信基盤技術)で構成されている。
実装された視聴アプリケーションには、デバイスの機能や受信環境に応じたコンテンツの取得先を自動決定する「コンテンツ発見技術」を採用。これにより、放送とネットで提供されるコンテンツを、視聴デバイスの違いに囚われずに選択・視聴が行える。
同技術は、放送/ネットの番組チャンネルや放送日時、出演者といったコンテンツの詳細情報と提供用法を表す「コンテンツ発見メタデータ」を用いることで、デバイスごとに放送・ネット上の適切なコンテンツを自動選択できる仕組みによって実現している。
また、これらを実装化する上で、番組情報データ構造の標準化を進めていく必要があるとし、同業者・異業者との協同や、Webのデファクト標準(Schema.orgなど)への対応、メディアに関する独自要件への対応といった、ネット展開に必要な番組情報の要素抽出などを進めていくとのこと。
さらに、将来的な生活環境のスマート化を想定し、様々なサービスのパーソナルデータをユーザーが手元で集約管理し活用する仕組み「パーソナルデータストア(以下、PDS)」と、行動認識技術を活用したシステムも披露した。
会場では、宅内にあるスマート/IoTデバイスを組み合わせて、ユーザーの生活行動に合わせたコンテンツ掲示を行うデモを実施。リビングから玄関、そして車内と、ユーザーが移動する場所に応じて、その場所に適したデバイスから好みのコンテンツが状況に応じて掲示されていた。
近年盛り上がりをみせるメタバース空間における活用例も公開。遠く離れた場所にいる家族や友人と仮想空間の中で集まり、サッカー中継といったリアルタイム放送やコンテンツが視聴できる「【共視聴の空間】バーチャル天皇杯サッカー」が展示された。
また、千葉県の里山にある古民家をモデリングした仮想空間で疑似体験ができる「【体験と学びの空間】バーチャル里山」では、古民家の周辺を自由に歩き回って探索することが可能。虫や魚といった気になるものを調べると、それに関連する放送コンテンツが流れるといった活用事例も紹介されている。
Webベース放送メディアについて、「様々な技術が高度化した将来の世界までを幅広く視野に入れた技術コンセプト」であるとし、今後の展開として、基本的性能から段階的に社会実装されることを想定。まずは初期段階の検証を放送事業者やメーカーなどと連携して進めていくという。
■信頼度の高いコンテンツ提供を実現するデータ連携技術。安定かつ低遅延なコンテンツ配信も
隣接ブースでは、Webベース放送メディアを活用したコンテンツとデータの連携・処理技術について展示。今回は、教育コンテンツから単語間の意味関係を抽出してグラフ構造化する「ナレッジグラフ」を活用し、各コンテンツを「学び」の観点で連携、よりユーザーに興味の広がりを提供するという試作システムが紹介されていた。
また、PDSによるパーソナルデータの自己管理・活用方法として、PDS内のパーソナルデータの可視化機能や、個別のデータごとにアクセス条件を設定して、各データごとに開示する・しないを自身で設定できるPDS管理の試作アプリも紹介する。
一例として、PDS内のSNS履歴をもとにカスタマイズされた番組表サービスを展示。番組表にYouTube視聴データなどのSNS履歴に関連した番組があると、それが番組表内で可視化されるといったカスタマイズの模様が確認できた。
コンテンツの信頼性確保を目的とした「来歴情報提示技術」は、各コンテンツの制作者や編集履歴などの来歴情報をコンテンツに付与するというもの。来歴情報にデジタル署名を付加することで高い信頼性を備え、ユーザーはコンテンツ視聴の際に来歴情報を確認して、信頼度を判断することができる。
放送局による動画配信サービスの安定・低遅延な配信を目的とした「クラウドネイティブ配信基盤技術」では、多様なリニア配信チャンネルの提供や低遅延配信技術によって、より快適なコンテンツ視聴を実現すると説明。
多様なリニア配信の提供方法の1つとして、効率的なストリーム生成・配信技術を紹介。本技術は、世界各地で制作されたライブ番組や収録番組を、テレビ放送のように番組表に従ってネット配信するというもの。クラウド上で生成した配信ストリームを、視聴地域やユーザーの好みに応じて組み合わせて配信する。
「低遅延配信技術」では、ユーザーごとの細かな通信状況から選択した品質のリアルタイム映像を、最新Web通信用API「WebTransport」によってサーバーからプッシュ配信することで、映像を低遅延かつ安定的に配信、視聴することができるという。
■解説音声や手話CGといったアクセシビリティー支援技術
アクセシビリティー支援技術ブースでは、視覚・聴覚障害者や高齢者、外国人といった様々な方に、滞りなく放送を伝えるための情報発信技術を公開。テレビ中継の解説音声や字幕、翻訳、手話CGといった、コンテンツの視聴をサポートする様々な技術が展示されている。
スポーツ中継の解説音声を制作・配信するシステムは、主に視覚障害者の方の番組視聴に向けて開発されたもの。従来の手入力に加えて、選手のモーションから読み取る「動作認識処理」と、選手名や数字といった「文字認識処理」から解説テキストを生成可能に。これにより、解説音声の作成に携わるオペレーターの人数も最小限まで削減できるとする。
生成した解説テキストは、音声合成されユーザーのスマートフォンで配信される。受信アプリでは、解説音声の話す速度や発話量といった項目を設定して、ユーザーに届く情報量を調整することもできる。今後は、2025年頃までにオペレーター1人で運用できるシステムの構築を目指すという。
あわせて、主に災害時のニュースなどを想定した、言い間違いや重複する話し言葉を加味して適した言葉にリアルタイムで翻訳する「日英機械翻訳技術」や、「手話CG翻訳生成システム」などを紹介していた。
■スマホやPCで動作するテレビ視聴ロボットアプリも
様々なデバイスで動作するテレビ視聴ロボットの展示も公開。視聴しているテレビ番組の内容に関係する自然な会話を生成し、発話してくれるハードウェアロボットで、このたびスマホやPC上で動作するロボットアプリが開発された。
新たにテレビ視聴時に人が話しそうな文章をロボットに学習させたことで、より自然な発話が可能になったとアピール。また、頭や手足を動かすことで「楽しい」や「悲しい」といった感情表現も行うほか、尻尾を使った動作も取り入れ、ロボットが人に背を向けている状態でも感情が伝わるよう配慮されている。
今後は、2025年頃を目処に、ロボットが人の興味や番組の状況に配慮して動作できるようにする改善アップデートを進めると共に、家庭環境での効果検証などにも取り組み、テレビ視聴ロボットの基盤技術をさらに確立していきたいとのことだ。
技研公開2023は、6月1日から6月4日まで一般公開。3日と4日はファミリー向けに海中VRなどの体験イベントも実施する。