モーションコントロールカメラロボットを使用した
次世代VRコンポジット撮影プロセスの研究(概要)(中間報告)

An Advanced Composite Shooting Method between Real and
CG Image Spaces with Motion Control Camera

研究代表者 伊藤 庸一郎(情報社会システム研究所 講師) 
共同研究者 佐藤 省三(情報社会システム研究所 講師), 
    日本放送協会,株式会社デンソーウェーブ

研究期間 2004年度〜2005年度

 

 デジタルデバイスの普及に伴いデジタル映像が身近なものとなった今日,高精度な実写とCGの合成技術は,映像表現手法として映画やTV放送に限らず,情報伝達のための重要なキーテクノロジーになりつつある.ハイビジョン放送や地上波デジタル放送の展開は,業界的に,より多彩で高精細な表現のニーズを加速させると考えられる.このような動きの中で,制作サイドの現状としては,物理的な制約を受ける実写と人工物であるCG映像を効率的に合成するのは一般に困難であり,高度な職人的技術を持ったCGオペレータが実写映像を基に,CG上のカメラ,ステージ,照明を現実の撮影環境と同期させるポストプロダクション的な合成プロセスが中心である.このため,合成映像の出来不出来は,その大部分がオペレータの腕により決まると言っても過言ではない.情報社会システム研究所では,伊藤および佐藤を中心として,このように人の技能に依存するプロセスをシステム化することでノーマライズし,高効率なプロセスマネジメントを実現する研究を行っている.本研究においては,プリプロダクションでCG上での撮影計画を実施し,CG上のカメラ撮影軌道に合わせてリアルカメラを動かすことで,実写とCGの一致を実現する撮影プロセスと,リアルカメラ軌道を取得可能なモーションコントロールカメラを使用し,これに合わせたCGカメラ軌道を生成することにより,実写とCGの一致を実現する撮影プロセスの2種類をシステム化することが目的である.但し,単に2つのプロセスをシステムとして実装するのみではなく,制作現場での技術移行と運用形態を視野に入れた,現状を包含しつつ全体として高効率で全く新しい撮影プロセスの導入が目標である.
 研究体制としては,株式会社デンソーウェーブがモーションコントロールロボットおよびロボット制御部の開発を担当し,日本福祉大学情報社会システム研究所としては,上記の撮影プロセスを実現するためのロボット操作システム開発を担当し,日本放送協会がモーションコントロール撮影における技術支援を行う体制で,日本放送協会との共同実験契約の下で実施してきた.技術的な課題としては,ロボットでの撮影視点ポイント教示による撮影計画およびCGソフトウェア(Maya)上での撮影計画の2種類の撮影計画手法からモーションコントロールロボットカメラの軌道を自動生成する技術,および撮影

 

後のロボットカメラ軌道をCGソフトウェア上のCGカメラ軌道に変換する技術,ロボットによる教示と軌道生成をスムースに行うためのユーザーインターフェース技術であり,これらの課題に対して仕様要件の決定,システム設計およびシステム開発を行った.
現在,ロボット操作システム開発はほぼ終了し,モーションコントロールロボットの統合テストおよび評価テストの段階である.平成17年2月22・23日のNHK番組放送技術展に出展され,繰り返し精度の高い撮影モーションのデモンストレーションが行われた.平成17年4月からの撮影運用に向けて,今後最終的な調整作業が行われる予定である.

 

←前の研究報告へ

 


Copyright(C):2006, The Research Institute of System Sciences, Nihon Fukushi University