論文の概要: Gesture Similarity Analysis on Event Data Using a Hybrid Guided
Variational Auto Encoder
- arxiv url: http://arxiv.org/abs/2104.00165v1
- Date: Wed, 31 Mar 2021 23:58:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:23:48.929952
- Title: Gesture Similarity Analysis on Event Data Using a Hybrid Guided
Variational Auto Encoder
- Title(参考訳): ハイブリッド誘導変分オートエンコーダを用いたイベントデータのジェスチャー類似性解析
- Authors: Kenneth Stewart, Andreea Danielescu, Lazar Supic, Timothy Shea, Emre
Neftci
- Abstract要約: 本研究では,背景を自然分解し,時間分解能の高いジェスチャーを解析するニューロモーフィックジェスチャー解析システムを提案する。
以上の結果から,VAEが学習した特徴は,新しいジェスチャーのクラスタリングと擬似ラベル付けが可能な類似度尺度を提供することがわかった。
- 参考スコア(独自算出の注目度): 3.1148846501645084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While commercial mid-air gesture recognition systems have existed for at
least a decade, they have not become a widespread method of interacting with
machines. This is primarily due to the fact that these systems require rigid,
dramatic gestures to be performed for accurate recognition that can be
fatiguing and unnatural. The global pandemic has seen a resurgence of interest
in touchless interfaces, so new methods that allow for natural mid-air gestural
interactions are even more important. To address the limitations of recognition
systems, we propose a neuromorphic gesture analysis system which naturally
declutters the background and analyzes gestures at high temporal resolution.
Our novel model consists of an event-based guided Variational Autoencoder (VAE)
which encodes event-based data sensed by a Dynamic Vision Sensor (DVS) into a
latent space representation suitable to analyze and compute the similarity of
mid-air gesture data. Our results show that the features learned by the VAE
provides a similarity measure capable of clustering and pseudo labeling of new
gestures. Furthermore, we argue that the resulting event-based encoder and
pseudo-labeling system are suitable for implementation in neuromorphic hardware
for online adaptation and learning of natural mid-air gestures.
- Abstract(参考訳): 商業的な空中ジェスチャー認識システムは少なくとも10年間存在してきたが、機械との対話方法として広く普及していない。
これは主に、これらのシステムが、太った不自然な正確な認識のために、厳格でドラマチックなジェスチャーを必要とするためである。
世界的パンデミック(世界的なパンデミック)は、タッチレスインターフェースへの関心が再び高まっている。
認識システムの限界に対処するため,背景を自然に散らかし,高時間分解能でジェスチャーを解析するニューロモルフィックなジェスチャー解析システムを提案する。
提案手法は,動的視覚センサ(dvs)によって検出された事象に基づくデータを,空中ジェスチャデータの類似性を解析・計算するのに適した潜在空間表現に符号化するイベントベース誘導型変分オートエンコーダ(vae)である。
以上の結果から,VAEが学習した特徴は,新しいジェスチャーのクラスタリングと擬似ラベル付けが可能な類似度尺度を提供することがわかった。
さらに、イベントベースのエンコーダと擬似ラベルシステムは、オンライン適応と自然な空中ジェスチャー学習のためのニューロモルフィックハードウェアの実装に適していると論じる。
関連論文リスト
- A Multi-label Classification Approach to Increase Expressivity of
EMG-based Gesture Recognition [4.701158597171363]
本研究の目的は,表面筋電図に基づくジェスチャー認識システム(SEMG)の表現性を効率的に向上することである。
動作を2つのバイオメカニカルな独立したコンポーネントに分割する問題変換アプローチを用いる。
論文 参考訳(メタデータ) (2023-09-13T20:21:41Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Snapture -- A Novel Neural Architecture for Combined Static and Dynamic
Hand Gesture Recognition [19.320551882950706]
そこで本研究では,新しいハイブリットハンドジェスチャ認識システムを提案する。
我々のアーキテクチャは静的なジェスチャーと動的ジェスチャーの両方を学ぶことができる。
本研究は,ロボットとの非言語コミュニケーションのためのジェスチャー認識研究と機械学習応用の両方に貢献する。
論文 参考訳(メタデータ) (2022-05-28T11:12:38Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Learning Dynamical Systems from Noisy Sensor Measurements using Multiple
Shooting [11.771843031752269]
本稿では,間接的に観測された動的システムの潜在表現を学習するための汎用的かつスケーラブルな手法を提案する。
生画像から直接観察されたシステム上での最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-06-22T12:30:18Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - 3D dynamic hand gestures recognition using the Leap Motion sensor and
convolutional neural networks [0.0]
本稿では,Leap Motionセンサーを用いて取得した非静的なジェスチャーの認識方法を提案する。
取得したジェスチャー情報をカラー画像に変換し、ジェスチャー中の手関節位置の変化を平面に投影する。
ジェスチャーの分類はDeep Convolutional Neural Network (CNN)を用いて行われる。
論文 参考訳(メタデータ) (2020-03-03T11:05:35Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。