論文の概要: GesturePrint: Enabling User Identification for mmWave-based Gesture Recognition Systems
- arxiv url: http://arxiv.org/abs/2408.05358v1
- Date: Thu, 25 Jul 2024 17:39:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 04:07:11.623550
- Title: GesturePrint: Enabling User Identification for mmWave-based Gesture Recognition Systems
- Title(参考訳): GesturePrint:mmWaveに基づくジェスチャー認識システムにおけるユーザ識別の実現
- Authors: Lilin Xu, Keyi Wang, Chaojie Gu, Xiuzhen Guo, Shibo He, Jiming Chen,
- Abstract要約: GesturePrintは,コモディティmmWaveレーダセンサを用いてジェスチャー認識とジェスチャーに基づくユーザ識別を実現する。
我々はGesturePrintを実装し、ミーティングルームとオフィスで15のジェスチャーを行う17人の参加者からデータを収集する。
GesturePrintは98.87%のジェスチャー認識精度(UIA)、99.78%のユーザ識別精度(UIA)、98.22%のGRA、99.26%のUIAをオフィスで達成している。
- 参考スコア(独自算出の注目度): 11.701873768210504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The millimeter-wave (mmWave) radar has been exploited for gesture recognition. However, existing mmWave-based gesture recognition methods cannot identify different users, which is important for ubiquitous gesture interaction in many applications. In this paper, we propose GesturePrint, which is the first to achieve gesture recognition and gesture-based user identification using a commodity mmWave radar sensor. GesturePrint features an effective pipeline that enables the gesture recognition system to identify users at a minor additional cost. By introducing an efficient signal preprocessing stage and a network architecture GesIDNet, which employs an attention-based multilevel feature fusion mechanism, GesturePrint effectively extracts unique gesture features for gesture recognition and personalized motion pattern features for user identification. We implement GesturePrint and collect data from 17 participants performing 15 gestures in a meeting room and an office, respectively. GesturePrint achieves a gesture recognition accuracy (GRA) of 98.87% with a user identification accuracy (UIA) of 99.78% in the meeting room, and 98.22% GRA with 99.26% UIA in the office. Extensive experiments on three public datasets and a new gesture dataset show GesturePrint's superior performance in enabling effective user identification for gesture recognition systems.
- Abstract(参考訳): ミリ波(mmWave)レーダーはジェスチャー認識に利用されている。
しかし、既存のmmWaveベースのジェスチャー認識手法では、多くのアプリケーションにおいて、ユビキタスなジェスチャーインタラクションにおいて重要な、異なるユーザを特定することはできない。
本稿では,ジェスチャ認識とジェスチャに基づくユーザ識別を,コモディティmmWaveレーダセンサを用いて初めて実現したGesturePrintを提案する。
GesturePrintは、ジェスチャー認識システムが小さな追加コストでユーザを識別できる効果的なパイプラインを備えている。
GesturePrintは、注目に基づくマルチレベル特徴融合機構を用いた効率的な信号前処理ステージとネットワークアーキテクチャGesIDNetを導入することにより、ジェスチャー認識のためのユニークなジェスチャー特徴と、ユーザ識別のためのパーソナライズされた動作パターン特徴を効果的に抽出する。
我々はGesturePrintを実装し、ミーティングルームとオフィスで15のジェスチャーを行う17人の参加者からデータを収集する。
GesturePrintは98.87%のジェスチャー認識精度(UIA)、99.78%のユーザ識別精度(UIA)、98.22%のGRA、99.26%のUIAをオフィスで達成している。
3つの公開データセットと新しいジェスチャーデータセットに関する大規模な実験は、ジェスチャー認識システムに効果的なユーザ識別を可能にするGesturePrintの優れたパフォーマンスを示している。
関連論文リスト
- Long-Distance Gesture Recognition using Dynamic Neural Networks [14.106548659369716]
本研究では,長距離からのジェスチャー認識のための新しい,高精度かつ効率的な手法を提案する。
動的ニューラルネットワークを使用して、入力センサーデータのジェスチャーを含む空間領域から特徴を抽出し、さらなる処理を行う。
LD-ConGR長距離データセット上での本手法の性能を示す。
論文 参考訳(メタデータ) (2023-08-09T00:56:38Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Simultaneous prediction of hand gestures, handedness, and hand keypoints
using thermal images [0.6087960723103347]
赤外線カメラで捉えたサーマルデータを用いて手指のジェスチャー分類,手指検出,手指キーポイントの局所化を同時に行う手法を提案する。
提案手法は,共有エンコーダデコーダ層を含む新しい深層マルチタスク学習アーキテクチャを用いて,各タスクに専用の3つのブランチを付加する。
論文 参考訳(メタデータ) (2023-03-02T19:25:40Z) - GesSure -- A Robust Face-Authentication enabled Dynamic Gesture
Recognition GUI Application [1.3649494534428745]
本稿では,頑健で顔認証が可能なジェスチャー認識システムを設計することを目的とする。
タスク操作に意味があり、関連するジェスチャーを使用します。
私たちのプロトタイプは、保存、印刷、ビデオプレイヤの操作と終了の制御、スリープ、シャットダウン、直感的にアンロックといった文脈に依存しないオペレーティングシステムタスクをうまく実行しました。
論文 参考訳(メタデータ) (2022-07-22T12:14:35Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - Efficient Gesture Recognition for the Assistance of Visually Impaired
People using Multi-Head Neural Networks [5.883916678819684]
本稿では,視覚障害者支援を目的とした手ジェスチャーによって制御されるモバイルデバイスの対話型システムを提案する。
このシステムにより、ユーザーはシンプルな静的、ダイナミックな手の動きをすることでデバイスと対話できる。
各ジェスチャーは、オブジェクト認識、シーン記述、イメージスケーリングなど、システム内の異なるアクションをトリガーする。
論文 参考訳(メタデータ) (2022-05-14T06:01:47Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。