HOME > ニュース > <NHK技研公開>裸眼3Dや「さわれるテレビ」などの注目展示も

表情や視線から視聴者の好みを学習する技術も

<NHK技研公開>裸眼3Dや「さわれるテレビ」などの注目展示も

公開日 2014/05/28 09:41 ファイル・ウェブ編集部
  • Twitter
  • FaceBook
  • LINE
NHK放送技術研究所が8Kスーパーハイビジョンやハイブリッドキャストを始めとする各種研究成果を一般に披露する「技研公開2014」が、5月29日(木)から6月1日(日)まで開催される。これに先立ち、プレス向けプレビューが行われた。

技研公開は毎年行われている恒例イベントで、今回のテーマは「ココロ動かすテクノロジー」。8Kスーパーハイビジョンやハイブリッドキャスト(HybridCast)だけでなく、フレキシブル有機ELディスプレイ、立体テレビの高画質化、番組で映っている物体を触っている感覚を体験できる技術など、31項目の展示が行われる。本稿では裸眼3Dを実現するインテグラル立体テレビや「さわれるテレビ」などの展示についてレポートする。

■裸眼3Dを実現するインテグラル立体テレビが進化

複数のカメラ映像を用いる多視点画像から立体像を生成することで、3Dメガネなしの裸眼3Dを実現させるインテグラル立体テレビ。この手法には、被写体が無地のような特徴点が見つけにくい場合に立体像の品質が低下するという課題があった。

そこでNHKでは今回、通常のカラーカメラだけでなく赤外線カラーカメラアレーを併用する手法を開発。通常の照明と赤外線ドットパターンを被写体に照射し、これを赤外線カメラとカラーカメラで構成されるカメラアレーで撮影することで、インテグラル立体像の精度を高めた。

赤外線カメラとカラーカメラを併用

これとは別に、レンズアレーと多画素のカメラから構成されるインテグラル立体撮影装置も開発。7台のカメラで多画素化を図り、1台で撮影する場合と比べて、見える範囲を水平・垂直ともに約2.5倍に広げた立体像を動画で展示している。

複数台のカメラで多画素化を図る

加えて、フルHDディスプレイを4枚使っての立体表示装置も展示。高品質なインテグラル立体像を表示するためには多くの画素を必要とするが、1台のディスプレイでは限界があるため、複数のディスプレイを用いてそれらの映像を結合することで多画素化。より高品質な立体像を表示できるようにした。

フルHDディスプレイを4枚使って多画素化


■ホログラフィーを応用した裸眼3D − 光指向性制御技術の応用も

裸眼3Dについては、ホログラフィーの応用も研究。超多画素化に必要なアクティブ・マトリクス駆動方式の新しいスピン注入型空間光変調器を開発し、超多画素でも高速なオン・オフ応答を可能にした。ホログラフィーによる自然な立体表示には超高精細で高速に応答する空間光変調器が必要だったが、今回の開発によりこれに対応した。

ホログラムの表示例

アクティブ・マトリクス駆動方式の新しいスピン注入型空間光変調器の解説

そのほか、パネル展示では、光の指向性制御技術を応用しての立体テレビ実現を目指す研究も紹介。ある一定方向の光だけを通す光偏向素子を画素の上に配置するというもので、これによりレンズアレーなどを使わずに光の変更・ビームパターン制御を可能にする。「例えばレンチキュラー式では一定方向からしか立体視できないが、この方法であれば寝転んだりしても立体視できる」(説明員)という。


■表情や視線から視聴者の好みを学習

キネクトなどのような外部機器や、テレビに内蔵されたスカイプ用カメラなどでユーザーを撮影しておき、番組のどの場面で笑ったり驚いたりしたのかを判断することで好みを探るという研究も紹介。

視聴者の反応をダイレクトに分析

同技術では、ちゃんと画面を見ているのかよそ見をしているのか、どの場面でどのような表情をしたのかというデータを自動で取得。番組内容との関係を解析することで、視聴者が番組内で興味を持った内容を推定して、「興味キーワード」としてタブレットに表示する。

視聴者は、このキーワードをタップすることで、その言葉に関連した番組を知ることができるという仕組み。このための番組探索ナビゲーションも今回併せて開発している。このナビゲーション開発にあたっては、インターネット上にある大量のテキストを解析してラレ他言葉の意味的なつながりを使って番組を紐付け。これにより、例えばグルメ番組で「天ぷら」に興味を持った場合に「胸焼け」という言葉へつなげ、健康情報を扱う「ためしてガッテン」をオススメするなどといったように、一見関係ないように見える番組を発見することもできるようにした。

ナビゲーションシステムも開発

■「さわれるテレビ」に「飛び出すテレビ」

番組内の物体を実際に触っているかのような感覚を体験できるというデモも実施。昨年も同様の研究成果を発表していたが、今年のシステムは対象物の角や稜線だけでなく、堅さの違いもわかりやすくなったという。

目玉焼きの黄身と白身の堅さの違いなども感じられるように

対象物の測定データを基に判断

また、番組内容に連動して振動する小型装置を握っておくことで、テレビのなかの物体の振動を感じることのできる「さわれるテレビ」と題した体験型展示も展開。

「さわれるテレビ」の体験イメージ

同展示は、スマホにインストールしたアプリによって、実際の放送ではカットされてしまう低い周波数帯域の情報を解析し、その情報に連動して手元の小型装置が震えるというもの。例えばポップコーンを作っている映像であれば、豆がポンポンと弾ける感覚が手のひらから伝わってくる。

スマホアプリで音声データを分析。写真左側にある小さな装置が連動して振動する

そして体験型展示ではテレビとタブレットを連携させた「飛び出すテレビ」もデモ。テレビのなかにいたキャラクターが、いつの間にか視聴者のタブレットに飛び出してくるというもので、テレビに向けるタブレットの角度を変えると、キャラクターの見え方なども連動する。

「どーもくん」がテレビ画面からタブレットに飛び出してきた

同技術はWi-FiやBluetoothなどでテレビとタブレットをリアルタイム連動させるのではなく、テレビ画面の四隅に表示しているマーカーで位置や時間情報をタブレット側のアプリと同期。「あと○秒でボールが画面から飛び出す」などといったような情報をもとに、アプリ側で用意しているデータを連動させるという仕組みになっており、ネットワーク環境が不要な点もメリットだという。

この記事をシェアする

  • Twitter
  • FaceBook
  • LINE

関連リンク

トピック