論文の概要: Cross-modal Learning of Graph Representations using Radar Point Cloud
for Long-Range Gesture Recognition
- arxiv url: http://arxiv.org/abs/2203.17066v1
- Date: Thu, 31 Mar 2022 14:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 14:08:15.296329
- Title: Cross-modal Learning of Graph Representations using Radar Point Cloud
for Long-Range Gesture Recognition
- Title(参考訳): 長距離ジェスチャー認識のためのレーダーポイントクラウドを用いたグラフ表現のクロスモーダル学習
- Authors: Souvik Hazra, Hao Feng, Gamze Naz Kiprit, Michael Stephan, Lorenzo
Servadei, Robert Wille, Robert Weigel, Avik Santra
- Abstract要約: 長距離(1m~2m)ジェスチャー認識のための新しいアーキテクチャを提案する。
私たちは、カメラポイントクラウドから60GHzのFMCWレーダポイントクラウドまで、ポイントクラウドベースのクロスラーニングアプローチを使用します。
実験結果では,5つのジェスチャーに対して98.4%の総合精度と一般化能力を示す。
- 参考スコア(独自算出の注目度): 6.9545038359818445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gesture recognition is one of the most intuitive ways of interaction and has
gathered particular attention for human computer interaction. Radar sensors
possess multiple intrinsic properties, such as their ability to work in low
illumination, harsh weather conditions, and being low-cost and compact, making
them highly preferable for a gesture recognition solution. However, most
literature work focuses on solutions with a limited range that is lower than a
meter. We propose a novel architecture for a long-range (1m - 2m) gesture
recognition solution that leverages a point cloud-based cross-learning approach
from camera point cloud to 60-GHz FMCW radar point cloud, which allows learning
better representations while suppressing noise. We use a variant of Dynamic
Graph CNN (DGCNN) for the cross-learning, enabling us to model relationships
between the points at a local and global level and to model the temporal
dynamics a Bi-LSTM network is employed. In the experimental results section, we
demonstrate our model's overall accuracy of 98.4% for five gestures and its
generalization capability.
- Abstract(参考訳): ジェスチャー認識は最も直感的なインタラクション方法の1つであり、人間のコンピュータインタラクションに特に注目を集めている。
レーダーセンサーは、低照度、厳しい気象条件で作業する能力、低コストでコンパクトであるなど、複数の固有の特性を有しており、ジェスチャー認識ソリューションとして非常に好適である。
しかし、ほとんどの文献は1メートル未満の限られた範囲の解に焦点をあてている。
本稿では、カメラポイントクラウドから60GHzのFMCWレーダポイントクラウドへのポイントクラウドベースのクロスラーニングアプローチを活用し、ノイズを抑えながらより良い表現を学習できるようにする、長距離(1m~2m)ジェスチャー認識ソリューションの新しいアーキテクチャを提案する。
クロスラーニングには動的グラフCNN(DGCNN)の変種を使用し、局所的およびグローバルレベルで点間の関係をモデル化し、Bi-LSTMネットワークが採用する時間的ダイナミクスをモデル化する。
実験では,5つのジェスチャに対するモデル全体の精度98.4%と一般化能力を示す。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Improved Static Hand Gesture Classification on Deep Convolutional Neural
Networks using Novel Sterile Training Technique [2.534406146337704]
非接触手ポーズと静的ジェスチャー認識は多くのアプリケーションで注目されている。
本稿では, ステレオ画像の導入により, 効率的なデータ収集手法と深部CNN訓練手法を提案する。
提案されたデータ収集とトレーニング手法を適用すると、静的ハンドジェスチャの分類率が85%から93%に向上する。
論文 参考訳(メタデータ) (2023-05-03T11:10:50Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Gesture Recognition with Keypoint and Radar Stream Fusion for Automated
Vehicles [13.652770928249447]
我々は、自動運転車が日常の交通における人間のジェスチャーを理解し、反応できるようにするために、共同カメラとレーダーのアプローチを提案する。
両モードに対する融合ニューラルネットワークを提案し,各モードに対する補助的損失を含む。
また, 天候条件の悪さが原因で, センサの1つが機能に欠ける場合にも有望な性能を示す。
論文 参考訳(メタデータ) (2023-02-20T14:18:11Z) - HDNet: Hierarchical Dynamic Network for Gait Recognition using
Millimeter-Wave Radar [13.19744551082316]
mmWaveレーダを用いた歩行認識のための階層型動的ネットワーク(HDNet)を提案する。
提案手法の優位性を証明するため,2つの公開ミリ波レーダに基づく歩行認識データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-11-01T07:34:22Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。