最上位:NIアプリケーションを指します。
中間:OpenNIそのものです。センサーと、センサーからのデータを分析する認識ミドルウェアの間のインターフェースを定義します。
最下層:視覚および聴覚デバイスを指します。
モジュール
OpenINは、物理デバイスと、認識ミドルウェア間のインターフェースを定義します。
APIは、OpenNIフレームワークに、たくさんのコンポーネントを登録することが可能です。
それらのコンポーネントは「モジュール」と呼ばれ、センサーデータを生成したり、処理したりします。
必要なデバイスを選んだり、必要な認識ミドルウェアを選ぶのは簡単で柔軟性があります。
モジュールには現在、以下の2種類があります。
1.センサーモジュール
3Dセンサー
RGBカメラ
IRカメラ
マイクロフォン
2.ミドルウェア
・人体認識ミドルウェア:センサーデータを分析し、人間の体に対応するデータを生成するプログラムです。
・手認識ミドルウェア:センサーデータを分析し、人間の手の位置などを生成するプログラムです。
・ジェスチャー認識ミドルウェア:あらかじめ定義されたジェスチャーを認識し、ジェスチャーを認識した場合にアプリケーションに通知するプログラムです。
・空間認識ミドルウェア:画像データを分析に、以下のような情報を生成するプログラムです。
1.背景と対象物の分離
2.床平面上の座標
3.空間中の物体の識別
例
下の図は、OpenNIに5つのモジュールが登録された様子を表します。
うち2つのモジュールは、3Dセンサーです。
残りの3つのモジュールは認識ミドルウェアで、2つは人間の全身データを生成し、もう1つは手の位置をトラッキングします。
プログラムやセンサーをOpenNI準拠とするためには、いくつかのインターフェイスを実装する必要があります。
0 件のコメント:
コメントを投稿