論文の概要: Hand gesture recognition using 802.11ad mmWave sensor in the mobile
device
- arxiv url: http://arxiv.org/abs/2211.07090v1
- Date: Mon, 14 Nov 2022 03:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 21:33:14.672232
- Title: Hand gesture recognition using 802.11ad mmWave sensor in the mobile
device
- Title(参考訳): 802.11admm波センサを用いた携帯端末のハンドジェスチャ認識
- Authors: Yuwei Ren, Jiuyuan Lu, Andrian Beletchi, Yin Huang, Ilia Karmanov,
Daniel Fontijne, Chirag Patel and Hao Xu
- Abstract要約: スマートフォンにおける802.11ad 60GHz (mmWave) 技術を用いたAI支援手振り認識の実現可能性について検討する。
我々は、時間分割デュプレックス(TDD)によってレーダーセンシングと通信波形が共存できるプロトタイプシステムを構築した。
センシングデータを収集し、100ミリ秒以内にジェスチャーを予測する。
- 参考スコア(独自算出の注目度): 2.5476515662939563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the feasibility of AI assisted hand-gesture recognition using
802.11ad 60GHz (mmWave) technology in smartphones. Range-Doppler information
(RDI) is obtained by using pulse Doppler radar for gesture recognition. We
built a prototype system, where radar sensing and WLAN communication waveform
can coexist by time-division duplex (TDD), to demonstrate the real-time
hand-gesture inference. It can gather sensing data and predict gestures within
100 milliseconds. First, we build the pipeline for the real-time feature
processing, which is robust to occasional frame drops in the data stream. RDI
sequence restoration is implemented to handle the frame dropping in the
continuous data stream, and also applied to data augmentation. Second,
different gestures RDI are analyzed, where finger and hand motions can clearly
show distinctive features. Third, five typical gestures (swipe, palm-holding,
pull-push, finger-sliding and noise) are experimented with, and a
classification framework is explored to segment the different gestures in the
continuous gesture sequence with arbitrary inputs. We evaluate our architecture
on a large multi-person dataset and report > 95% accuracy with one CNN + LSTM
model. Further, a pure CNN model is developed to fit to on-device
implementation, which minimizes the inference latency, power consumption and
computation cost. And the accuracy of this CNN model is more than 93% with only
2.29K parameters.
- Abstract(参考訳): スマートフォンにおける802.11ad 60GHz (mmWave) 技術を用いたAI支援手振り認識の実現可能性について検討する。
パルスドップラーレーダを用いたジェスチャー認識により、距離ドップラー情報(rdi)を得る。
レーダーセンシングとwlan通信波形を時間分割二重化(tdd)によって共存させ,実時間ハンドジェスチャ推論を実証するプロトタイプシステムを構築した。
センシングデータを収集し、100ミリ秒以内にジェスチャーを予測する。
まず、リアルタイムの機能処理のためのパイプラインを構築します。
RDIシーケンスの復元は、連続データストリーム内のフレームドロップを処理するために実装され、データ拡張にも適用される。
第二に、異なるジェスチャーrdiを分析し、指と手の動きが明確な特徴を示すことができる。
第3に, 5つの典型的なジェスチャー(スワイプ, 手のひら保持, プルプッシュ, フィンガースライディング, ノイズ)を実験し, 任意の入力で連続的なジェスチャ列の異なるジェスチャを分割する分類枠組みを検討した。
大規模マルチパーソンデータセット上でアーキテクチャを評価し,1つのcnn + lstmモデルを用いて95%の精度を報告した。
さらに、デバイス上の実装に適合する純粋なCNNモデルを開発し、推論遅延、消費電力、計算コストを最小限に抑える。
CNNモデルの精度は93%以上で、パラメータは2.29Kである。
関連論文リスト
- Gesture Recognition for FMCW Radar on the Edge [0.0]
ジェスチャーは5つの特徴の集合によって効率的に特徴付けられることを示す。
リカレントニューラルネットワーク(RNN)ベースのアーキテクチャは、これらの特徴を利用して、5つの異なるジェスチャーを共同で検出し、分類する。
提案システムでは, ホールドアウトテストデータセットにおいて, 98.4%のF1スコアでジェスチャーを認識する。
論文 参考訳(メタデータ) (2023-10-13T06:03:07Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - It Takes Two: Masked Appearance-Motion Modeling for Self-supervised
Video Transformer Pre-training [76.69480467101143]
自己監督型ビデオトランスフォーマーの事前トレーニングは、最近マスク・アンド・予測パイプラインの恩恵を受けている。
本稿では,映像中の動きの手がかりを余分な予測対象として明示的に調査し,マスケッド・出現運動モデリングフレームワークを提案する。
一般的なビデオ表現を学習し、Kinects-400で82.3%、Something V2で71.3%、UCF101で91.5%、HMDB51で62.5%を達成する。
論文 参考訳(メタデータ) (2022-10-11T08:05:18Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - A Prospective Approach for Human-to-Human Interaction Recognition from
Wi-Fi Channel Data using Attention Bidirectional Gated Recurrent Neural
Network with GUI Application Implementation [0.0]
本研究は、WiFiルータとIntel 5300 NIC間の多重入力多重出力無線リンクと、時系列Wi-Fiチャネル状態情報を用いて、人対人同時通信認識を行う。
提案した自己注意誘導双方向Gated Recurrent Neural Networkは、13の相互相互作用を1つの主題ペアに対して最大94%のベンチマーク精度で分類することができる。
論文 参考訳(メタデータ) (2022-02-16T15:40:52Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - Tesla-Rapture: A Lightweight Gesture Recognition System from mmWave
Radar Point Clouds [28.304829106423988]
Tesla-Raptureは、mmWave Radarsによって生成された点雲のジェスチャー認識インターフェースである。
我々は,ミリ波レーダ点雲に対するメッセージパッシングニューラルネットワーク(MPNN)グラフ畳み込み手法であるTeslaを開発した。
ソースコード、トレーニングされたモデル、組込みデバイス向けのモデルの実装を公開します。
論文 参考訳(メタデータ) (2021-09-14T05:25:17Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - TinyRadarNN: Combining Spatial and Temporal Convolutional Neural
Networks for Embedded Gesture Recognition with Short Range Radars [13.266626571886354]
本研究は,バッテリ操作型ウェアラブルデバイスを対象とした,低消費電力な組込み手位置認識アルゴリズムを提案する。
範囲周波数ドップラー特徴を用いた2次元畳み込みニューラルネットワーク(CNN)と時間列予測のための時間畳み込みニューラルネットワーク(TCN)を組み合わせる。
論文 参考訳(メタデータ) (2020-06-25T15:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。