今日は夕方までチェックバック待ち、遅ればせながらKinectセンサーを買ってきました。

で、簡単なところでProcessingでkinect。

ちょっと処理遅い。openframeworkかCINDERでやったほうがいいか。
奥行き5m近くまでとれるのかな。RGBとDepth両方を記録しながら移動して、Kinectの位置情報と姿勢はRGBからマッチムーブソフトにかければスキャナになりますね。Kinectの電源をどうするかはさておき。
今日は夕方までチェックバック待ち、遅ればせながらKinectセンサーを買ってきました。
で、簡単なところでProcessingでkinect。
ちょっと処理遅い。openframeworkかCINDERでやったほうがいいか。
奥行き5m近くまでとれるのかな。RGBとDepth両方を記録しながら移動して、Kinectの位置情報と姿勢はRGBからマッチムーブソフトにかければスキャナになりますね。Kinectの電源をどうするかはさておき。
Kinect[xbox.com]用の公式(?)PC用ドライバと人体認識APIの公開ですって。お茶の間でモーションキャプチャですよ。
クロマキーはもちろんキャプチャマーカーもいらず。撮影と一緒に演者のモデルデータとモーションもゲット、気に食わなきゃ後で演技でも照明でも上書き。僕らはひたすらレンダリングPCを増設です、か?、、、
フレーム差分をとれば静止物との切り分けはできるんでしょうけど、複数の動体は距離で分けてるのかな。
http://openni.org/