マイノリティ・リポート:フィクションからほぼ現実へ!
ジェスチャに基づくデバイス制御は、ユーザ・エクスペリエンスの向上や衛生上の理由による非接触アプリケーションへの対応など、さまざまなメリットをもたらします。 デモのために数種のハンド・サインを識別する3つのクラスを作成しましたが、このモデルはあらゆるジェスチャを学習させることで最終ユーザに幅広い新機能を提供できます。
NanoEdge AI StudioはToF(Time-of-Flight)測距センサをサポートしていますが、このアプリケーションではレーダーなどのセンサを使用することもできます。
アプローチ
- 信号を減らして情報を簡素化するために、カメラではなくToF測距センサを使用しました。
- 背景の影響を低減するために検出距離を20cmに設定しました。 オプション:測定した距離の2値化
- 10回測定し(周波数:15Hz)、測定ごとにクラスを予測しました。
- (メジャーを連結してより長い信号を作成することは、動きの進化を研究するために行われる。ここでは、標識の分類が目的である。
- クラス(じゃんけん)ごとに3,000レコードのデータセットを作成し、空の測定(動きなし)を避けた。)
- 最後に、NanoEdge AI Studioで「Nクラス分類」モデル(3クラス)を作成し、
NUCLEO-F401REでライブテストしました。
センサ
データ
3種類のデータじゃんけん
信号長64、連続する 8x8 マトリックス
データレート15 Hz
結果
3クラス分類:
99.37%の精度、0.6 KB RAM、192.2 KB フラッシュ緑の点は正しく分類された信号を表し、赤い点は誤って分類された信号を表します。 横座標はクラス、縦座標は正常状態に対する類似度です。