調べだしたら勢いづいて曲を作らずに「3D Match Move」のテストを
行なうことに・・・
とりあえず正常にマッチムーブを行なうことを最優先にするために
難易度は低め。
自身のツールをベースとした「Match Move」の基本ワークフローの
構築とポイントの分析を行なう。
テスト映像撮影時のマーカー代わりのルービックキューブ。

100均で購入。
同ポジでマーカーなしの素材を取っていないので今回は意味のない感じ。
でテスト素材を「voodooCameraTracker」でトラッキング
そのデータをXSIに読み込んでオブジェクトを配置。
「voodooCameraTracker」とあまりXSIが相性が好くないので
(voodooCameraTracker側のバグ)それを踏まえたうえでの
ワークフローを模索。構成ポイントを探ること数時間。
数年前に案件で使用したときのことや新しい情報などを探しつつ
検証しつつでなんとかポイントを見出すことに・・・
トラッキングデータから位置の基準に使うヌルを選択。
配置オブジェクトを基準ヌルにアタッチ
これでポジションが確定したのでオブジェクトの角度を目測であわせ
コンストレインをミュートする。
これで設定ポジションでの移動が可能に。
(今回はオブジェクトの移動は無し)
XSIとvoodooCameraTrackerのカメラ情報の基点(X・Y・Zの初期値)
が違うためXSIを使用するなりのノウハウが必要。
今回のアプローチでトラッキングデータ使用のノウハウは構築。
blenderとvoodooCameraTrackerの相性はいいようで
トラッキングデータのカメラデータの修正は不必要。
生成オブジェクトとの基点はナチュラルにあっているようなので
目測でオブジェクトの角度をあわせるだけでほぼほぼOK。
映像はこちら
スタートボタンを押しても正常再生しないない場合はページを
再読み込みをおこなってからスタートすればOK。
boujou(廉価版含)なんかだとトラッキングデータを吐き出すときに
指定のポイントを基点にX・Y・Zを設定できるらしいので
XSIだったりMAYAだったりのカメラが持つX・Y・Zの初期値を
あわせて書き出せるから基点ポジションからオブジェクトの云々の
作業はいらないらしい(聞いた話なんでなんとも・・・)。
アニメーションデータを含む状態でblenderからXSIへデータを
移行することができればトラッキングの制度はvoodooCameraTrackerより
直接XSIにデータを読み込むより高い気がする。
blenderのカメラの初期値X・Y・Z
=
voodooCameraTrackerが書き出すカメラデータの初期値X・Y・Z
な初期値。
で、voodooCameraTracker → blender → XSIの流れを検証。
試行錯誤の結果 ノウハウとワークフローを構築。
次回はその流れでのトラッキングを検証することに。
要望や難易度にもよるが、なにげに案件でも使えそうでひと安心。
導入するにしても、それまでに検証を重ねてノウハウとワークフローを
構築していれば導入後もスムーズな移行が可能に。
これから難易度を上げながらより実践向きに調整をおこなっていくことに。
ということで・・・たぶん・・・TechnicalTest. 数回は 3D Match Move
ネタを続けます。
ピントが合っているうちに詰め込んだり磨いたりすると
得たノウハウやスキルの精度はあがり定着するんでね。
いい感じです。「感謝」。