2012年2月24日金曜日

kinectでも使ってみようか5

あれから1年が過ぎてしまいましたが、最近また使い始めてます。以前より随分進歩が見られます、とは言いがたいけどそれなりに目的に近づいているので少し紹介します。相変わらずネット任せというか人任せです。
さて、新たに見つけたのがRGBDemoというもの。この中には、Lionでも動くkinectのキャリブレーションとか複数のkinectを使ったりとかできるいろいろなappが入ってますが、この中のrgbd-reconstructor.appというものを使って実空間を取り込んでみました。作者のNicolas Burrus氏には非常に感謝しています。どういったものかはBurrus氏のサイトで詳しく説明していますが、kinecを移動させる事でkinectがみている空間をつなぎ合わせて一つの3Dデータにまとめるというもの(間違っているかもしれませんがそんなとこ)。部屋の中や大きな物体の3D構造を把握できます。作ってくれるファイルはply形式でこれを読むために昨年はblenderを使いましたが、今回はmeshlab.appを使いました。まだ使い方などを殆ど把握していませんがこっちの方が扱いが随分簡単な上にメジャーを簡単に使えました。とにかく良く分からずにやっても結構簡単にできるもんです。

他にテキストデータで深度(奥行き)情報もymlファイルで出力してくれるので分析にはいいのかもしれない。
問題はどれだけのファイル空間情報を取り込めるのか部屋程度なのか建物全体まで一つのファイルにできるのか、別々に取ったファイルをつなぎ合わせる事ができるのか、今後の課題。
また、キャリブレーション方法やymlファイルの出力内容等についても検討しなければいけない。

Xcodeを入れ直してたりOpenframeworksやらOpenkinectやらgitしたりfinkしたりしたもどうもうまく行かなかったけど、とりあえずこの二つのAppでなんとかしのごう。
ま、compileとかmakeとかそこら辺から勉強しないとだめですってことか。