論文の概要: Exploring Spatial-Temporal Representation via Star Graph for mmWave Radar-based Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2512.12013v1
- Date: Fri, 12 Dec 2025 20:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.075444
- Title: Exploring Spatial-Temporal Representation via Star Graph for mmWave Radar-based Human Activity Recognition
- Title(参考訳): mmWaveレーダを用いた人間活動認識のためのスターグラフによる時空間表現の探索
- Authors: Senhao Gao, Junqing Zhang, Luoyu Mei, Shuai Wang, Xuyu Wang,
- Abstract要約: そこで我々は,人間の運動関連特徴の空間的時間的表現を探索するために,離散グラフニューラルネットワーク(DDGNN)を用いたグラフ表現を提案する。
システム全体の分類精度は94.27%で、視力に基づく骨格データの精度は97.25%である。
- 参考スコア(独自算出の注目度): 24.55019884151024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human activity recognition (HAR) requires extracting accurate spatial-temporal features with human movements. A mmWave radar point cloud-based HAR system suffers from sparsity and variable-size problems due to the physical features of the mmWave signal. Existing works usually borrow the preprocessing algorithms for the vision-based systems with dense point clouds, which may not be optimal for mmWave radar systems. In this work, we proposed a graph representation with a discrete dynamic graph neural network (DDGNN) to explore the spatial-temporal representation of human movement-related features. Specifically, we designed a star graph to describe the high-dimensional relative relationship between a manually added static center point and the dynamic mmWave radar points in the same and consecutive frames. We then adopted DDGNN to learn the features residing in the star graph with variable sizes. Experimental results demonstrated that our approach outperformed other baseline methods using real-world HAR datasets. Our system achieved an overall classification accuracy of 94.27\%, which gets the near-optimal performance with a vision-based skeleton data accuracy of 97.25\%. We also conducted an inference test on Raspberry Pi~4 to demonstrate its effectiveness on resource-constraint platforms. \sh{ We provided a comprehensive ablation study for variable DDGNN structures to validate our model design. Our system also outperformed three recent radar-specific methods without requiring resampling or frame aggregators.
- Abstract(参考訳): HAR(Human Activity Recognition)は、人間の動きによって正確な時空間的特徴を抽出する必要がある。
mmWaveレーダポイントクラウドベースのHARシステムは、mmWave信号の物理的特徴により、スパーシリティと可変サイズの問題に悩まされる。
既存の作業は通常、高密度の点雲を持つ視覚ベースのシステムのための前処理アルゴリズムを借用するが、これはmmWaveレーダーシステムには最適ではない。
本研究では,離散動的グラフニューラルネットワーク(DDGNN)を用いたグラフ表現を提案し,人間の運動関連特徴の空間的時間的表現について検討した。
具体的には、手動で付加した静的中心点と、同じ連続フレームにおける動的mmWaveレーダ点との高次元相対関係を記述するために、スターグラフを設計した。
次に、DDGNNを採用して、星グラフ上に存在する様々な大きさの特徴を学習した。
実験の結果,本手法は実世界のHARデータセットを用いた他のベースライン手法よりも優れていた。
システム全体の分類精度は94.27\%であり、視覚に基づく骨格データの精度は97.25\%である。
また,Raspberry Pi~4で推論テストを実施し,資源制約プラットフォーム上での有効性を実証した。
モデル設計を検証するため,変数DDGNN構造に対する包括的アブレーション実験を行った。
また,本システムは,リサンプリングやフレームアグリゲータを必要とせず,最近の3つのレーダ固有の手法よりも優れていた。
関連論文リスト
- Spatiotemporal Radar Gesture Recognition with Hybrid Spiking Neural Networks: Balancing Accuracy and Efficiency [3.6205625120193354]
本稿では,レーダに基づく人間活動認識(HAR)におけるスパイキングニューラルネットワーク(SNN)の利用について紹介する。
我々の新しいハイブリッドアーキテクチャは、空間的特徴抽出のための畳み込みモジュールと時間的処理のためのLeaky Integrate-and-Fireニューロンを組み合わせる。
レーダベースHARの効率的かつ競争力のあるソリューションとしてSNNを確立し, 精度, レイテンシ, メモリ, エネルギーの観点からスパイキング計算のトレードオフを実証する。
論文 参考訳(メタデータ) (2025-09-27T13:31:11Z) - TacoDepth: Towards Efficient Radar-Camera Depth Estimation with One-stage Fusion [54.46664104437454]
一段核融合を用いた効率的かつ正確なレーダ・カメラ深度推定モデルであるTacoDepthを提案する。
具体的には、グラフベースのRadar構造抽出器とピラミッドベースのRadar融合モジュールを設計する。
従来の最先端のアプローチと比較して、TacoDepthは深さ精度と処理速度を12.8%、91.8%改善している。
論文 参考訳(メタデータ) (2025-04-16T05:25:04Z) - GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Human Semantic Segmentation using Millimeter-Wave Radar Sparse Point
Clouds [3.3888257250564364]
本稿では,ミリ波レーダの粗い逐次点雲のセマンティックセグメンテーションのためのフレームワークを提案する。
mmWaveデータの空間的特徴と時間的トポロジ的特徴は依然として問題である。
グラフ構造とトポロジ的特徴をポイントクラウドに導入し,セマンティックセグメンテーションフレームワークを提案する。
我々のモデルは、$mathbf82.31%$でカスタムデータセットの平均精度を達成し、最先端のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2023-04-27T12:28:06Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Structural Temporal Graph Neural Networks for Anomaly Detection in
Dynamic Graphs [54.13919050090926]
本稿では,動的グラフの異常エッジを検出するために,エンドツーエンドの時間構造グラフニューラルネットワークモデルを提案する。
特に,まずターゲットエッジを中心にした$h$ホップ囲むサブグラフを抽出し,各ノードの役割を識別するノードラベル機能を提案する。
抽出した特徴に基づき,GRU(Gated Recurrent Unit)を用いて,異常検出のための時間的情報を取得する。
論文 参考訳(メタデータ) (2020-05-15T09:17:08Z) - Hypergraph Spectral Analysis and Processing in 3D Point Cloud [80.25162983501308]
3Dポイントクラウドは、3Dオブジェクトや周囲を特徴付ける基本的なデータ構造になっている。
3次元点雲を効率的に処理するには、基礎となる構造と外周騒音に適したモデルが常に重要である。
本稿では,高速な解析と処理が可能なハイパーグラフベースの新しいポイントクラウドモデルを提案する。
論文 参考訳(メタデータ) (2020-01-08T05:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。