2011年6月18日土曜日

OpenNIの階層

下の図は、OpenNIのコンセプトを階層で表したものです。

最上位:NIアプリケーションを指します。
中間:OpenNIそのものです。センサーと、センサーからのデータを分析する認識ミドルウェアの間のインターフェースを定義します。
最下層:視覚および聴覚デバイスを指します。

モジュール

OpenINは、物理デバイスと、認識ミドルウェア間のインターフェースを定義します。
APIは、OpenNIフレームワークに、たくさんのコンポーネントを登録することが可能です。
それらのコンポーネントは「モジュール」と呼ばれ、センサーデータを生成したり、処理したりします。
必要なデバイスを選んだり、必要な認識ミドルウェアを選ぶのは簡単で柔軟性があります。

モジュールには現在、以下の2種類があります。

1.センサーモジュール
3Dセンサー
RGBカメラ
IRカメラ
マイクロフォン

2.ミドルウェア
・人体認識ミドルウェア:センサーデータを分析し、人間の体に対応するデータを生成するプログラムです。

・手認識ミドルウェア:センサーデータを分析し、人間の手の位置などを生成するプログラムです。

・ジェスチャー認識ミドルウェア:あらかじめ定義されたジェスチャーを認識し、ジェスチャーを認識した場合にアプリケーションに通知するプログラムです。

・空間認識ミドルウェア:画像データを分析に、以下のような情報を生成するプログラムです。
1.背景と対象物の分離
2.床平面上の座標
3.空間中の物体の識別



下の図は、OpenNIに5つのモジュールが登録された様子を表します。
うち2つのモジュールは、3Dセンサーです。
残りの3つのモジュールは認識ミドルウェアで、2つは人間の全身データを生成し、もう1つは手の位置をトラッキングします。


プログラムやセンサーをOpenNI準拠とするためには、いくつかのインターフェイスを実装する必要があります。

0 件のコメント:

コメントを投稿