顔や手足が自在に動く「いらすとや」Live2Dモデルも用意
ソニーのモバイルモーションキャプチャー「mocopi」がLive2D全身トラッキングに対応
(株)Live2Dは、同社提供のトラッキングアプリ「nizima LIVE」のバージョンアップデートにて、ソニーのモバイルモーションキャプチャー「mocopi」による全身トラッキングに対応することを発表した。
nizima LIVEは、PC用フェイストラッキングアプリとして2021年9月にリリース。iPhoneやWebカメラとの連携で顔の表情、動きをトラッキングして、イラストからモデリングした「Live2Dモデル」にその動きを反映することができ、2DアバターでのVTuber活動をアシストする。
この度nizima LIVEのバージョンアップデート “2.0” にて、ソニーのモバイルモーションキャプチャーmocopiを新たにサポート。mocopiで取得した3D用のデータを、nizima LIVE内でLive2Dモデル用に最適化することで、目や顔のみならず全身の動きをトラッキングできるようになる。
具体的には、上半身の動き、上腕・前腕の角度、肘の曲げ角、腰の横振り、太もも・すねの角度、膝の曲げ角、全身・肘・膝・足の位置などをLive2Dモデルに反映可能。顔の回転や、手の位置・角度といった既存のパラメーターについても、mocopiからの入力を使うことで、カメラ画角外の大きな動きを取れるようになるという。
Live2D社は、mocopiの発売元であるソニーとグループの関係性であり、Live2D側は「ユーザーの表現力向上」、mocopiは「ユーザーの増加」という要素をキーに今回のコラボレーションに至ったとのことだ。
なお、mocopiを利用した全身トラッキングでLive2Dモデルを動かすには、Live2Dモデル側も上記パラメーターに対応させる必要がある。また、本アップデートに伴って全身トラッキングに対応したサンプルモデルの配布も予定されており、イラストレーターみふねたかし氏によるイラスト素材「いらすとや」Live2Dモデルもサンプルとしてラインナップ。近日中に10体が利用可能になるとしている。
ほか、アップデート内容としてトラッキングの感度調整を自動で行う自動キャリブレーション機能、パラメーター設定の利便性向上、アプリ内アップデート完結対応、ショートカット機能の強化、新規エフェクトの追加などが行われる。
nizima LIVEは、PC用フェイストラッキングアプリとして2021年9月にリリース。iPhoneやWebカメラとの連携で顔の表情、動きをトラッキングして、イラストからモデリングした「Live2Dモデル」にその動きを反映することができ、2DアバターでのVTuber活動をアシストする。
この度nizima LIVEのバージョンアップデート “2.0” にて、ソニーのモバイルモーションキャプチャーmocopiを新たにサポート。mocopiで取得した3D用のデータを、nizima LIVE内でLive2Dモデル用に最適化することで、目や顔のみならず全身の動きをトラッキングできるようになる。
具体的には、上半身の動き、上腕・前腕の角度、肘の曲げ角、腰の横振り、太もも・すねの角度、膝の曲げ角、全身・肘・膝・足の位置などをLive2Dモデルに反映可能。顔の回転や、手の位置・角度といった既存のパラメーターについても、mocopiからの入力を使うことで、カメラ画角外の大きな動きを取れるようになるという。
Live2D社は、mocopiの発売元であるソニーとグループの関係性であり、Live2D側は「ユーザーの表現力向上」、mocopiは「ユーザーの増加」という要素をキーに今回のコラボレーションに至ったとのことだ。
なお、mocopiを利用した全身トラッキングでLive2Dモデルを動かすには、Live2Dモデル側も上記パラメーターに対応させる必要がある。また、本アップデートに伴って全身トラッキングに対応したサンプルモデルの配布も予定されており、イラストレーターみふねたかし氏によるイラスト素材「いらすとや」Live2Dモデルもサンプルとしてラインナップ。近日中に10体が利用可能になるとしている。
ほか、アップデート内容としてトラッキングの感度調整を自動で行う自動キャリブレーション機能、パラメーター設定の利便性向上、アプリ内アップデート完結対応、ショートカット機能の強化、新規エフェクトの追加などが行われる。