論文の概要: Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal
- arxiv url: http://arxiv.org/abs/2111.06195v1
- Date: Thu, 11 Nov 2021 13:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 14:10:20.843963
- Title: Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal
- Title(参考訳): mmWave信号を用いたドメイン独立・リアルタイムジェスチャー認識に向けて
- Authors: Yadong Li, Dongheng Zhang, Jinbo Chen, Jinwei Wan, Dong Zhang, Yang
Hu, Qibin Sun, Yan Chen
- Abstract要約: DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
- 参考スコア(独自算出の注目度): 11.76969975145963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human gesture recognition using millimeter wave (mmWave) signals provides
attractive applications including smart home and in-car interface. While
existing works achieve promising performance under controlled settings,
practical applications are still limited due to the need of intensive data
collection, extra training efforts when adapting to new domains (i.e.
environments, persons and locations) and poor performance for real-time
recognition. In this paper, we propose DI-Gesture, a domain-independent and
real-time mmWave gesture recognition system. Specifically, we first derive the
signal variation corresponding to human gestures with spatial-temporal
processing. To enhance the robustness of the system and reduce data collecting
efforts, we design a data augmentation framework based on the correlation
between signal patterns and gesture variations. Furthermore, we propose a
dynamic window mechanism to perform gesture segmentation automatically and
accurately, thus enable real-time recognition. Finally, we build a lightweight
neural network to extract spatial-temporal information from the data for
gesture classification. Extensive experimental results show DI-Gesture achieves
an average accuracy of 97.92%, 99.18% and 98.76% for new users, environments
and locations, respectively. In real-time scenario, the accuracy of DI-Gesutre
reaches over 97% with average inference time of 2.87ms, which demonstrates the
superior robustness and effectiveness of our system.
- Abstract(参考訳): ミリ波(mmWave)信号を用いた人間のジェスチャー認識は、スマートホームや車載インターフェースなどの魅力的な応用を提供する。
既存の作品は、制御された環境では有望なパフォーマンスを達成しているが、集中的なデータ収集の必要性、新しいドメイン(環境、人、場所)への適応における追加のトレーニング作業、リアルタイム認識のパフォーマンス不足などにより、実用アプリケーションは依然として制限されている。
本稿では,ドメインに依存しないリアルタイムな mmWave ジェスチャー認識システム DI-Gesture を提案する。
具体的には、まず、時空間処理による人間のジェスチャーに対応する信号変化を導出する。
システムのロバスト性を高め,データ収集の労力を削減するため,信号パターンとジェスチャーのバリエーションの相関に基づいてデータ拡張フレームワークを設計する。
さらに,ジェスチャーのセグメンテーションを自動的かつ正確に行う動的ウィンドウ機構を提案し,リアルタイム認識を実現する。
最後に、ジェスチャー分類のためのデータから時空間情報を抽出する軽量ニューラルネットワークを構築する。
大規模な実験の結果、DI-Gestureの精度は97.92%、99.18%、98.76%となっている。
リアルタイムのシナリオでは、di-gesutreの精度は平均推算時間2.87msで97%以上に達し、システムの優れた堅牢性と有効性を示している。
関連論文リスト
- An LSTM Feature Imitation Network for Hand Movement Recognition from sEMG Signals [2.632402517354116]
我々は,Ninapro DB2上の300ms信号ウィンドウ上での閉形式時間特徴学習にFIN(Feature-imitating Network)を適用することを提案する。
次に、下流手の動き認識タスクに事前学習したLSTM-FINを適用して、転送学習機能について検討する。
論文 参考訳(メタデータ) (2024-05-23T21:45:15Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - Long-Distance Gesture Recognition using Dynamic Neural Networks [14.106548659369716]
本研究では,長距離からのジェスチャー認識のための新しい,高精度かつ効率的な手法を提案する。
動的ニューラルネットワークを使用して、入力センサーデータのジェスチャーを含む空間領域から特徴を抽出し、さらなる処理を行う。
LD-ConGR長距離データセット上での本手法の性能を示す。
論文 参考訳(メタデータ) (2023-08-09T00:56:38Z) - Hand gesture recognition using 802.11ad mmWave sensor in the mobile
device [2.5476515662939563]
スマートフォンにおける802.11ad 60GHz (mmWave) 技術を用いたAI支援手振り認識の実現可能性について検討する。
我々は、時間分割デュプレックス(TDD)によってレーダーセンシングと通信波形が共存できるプロトタイプシステムを構築した。
センシングデータを収集し、100ミリ秒以内にジェスチャーを予測する。
論文 参考訳(メタデータ) (2022-11-14T03:36:17Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Real-Time Activity Recognition and Intention Recognition Using a
Vision-based Embedded System [4.060731229044571]
ドアを通そうとしないという人々の意図を認識するために,リアルタイムな活動認識を導入する。
このシステムは、エレベーターや自動ドアに適用すれば、省エネと効率の向上につながる。
組込みシステムは、意図認識データセットの98.78%の精度で実装された。
論文 参考訳(メタデータ) (2021-07-27T11:38:44Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction [0.6875312133832077]
本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
論文 参考訳(メタデータ) (2020-08-26T11:28:50Z) - A Generative Learning Approach for Spatio-temporal Modeling in Connected
Vehicular Network [55.852401381113786]
本稿では,コネクテッドカーの無線アクセス遅延を実現するための総合的時間品質フレームワークであるLaMI(Latency Model Inpainting)を提案する。
LaMIはイメージインペイントと合成のアイデアを採用し、2段階の手順で欠落したレイテンシサンプルを再構築することができる。
特に、パッチ方式のアプローチを用いて各地域で収集されたサンプル間の空間的相関を初めて発見し、その後、原点および高度に相関したサンプルをバラエナオートコーダ(VAE)に供給する。
論文 参考訳(メタデータ) (2020-03-16T03:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。