論文の概要: Multi-Head Adaptive Graph Convolution Network for Sparse Point Cloud-Based Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2504.02778v1
- Date: Thu, 03 Apr 2025 17:19:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:57.141182
- Title: Multi-Head Adaptive Graph Convolution Network for Sparse Point Cloud-Based Human Activity Recognition
- Title(参考訳): スパースポイントクラウドに基づく人間活動認識のためのマルチヘッド適応グラフ畳み込みネットワーク
- Authors: Vincent Gbouna Zakka, Luis J. Manso, Zhuangzhuang Dai,
- Abstract要約: グラフ畳み込みフレームワークに適応的なアプローチを導入する。
単一の共有重み関数の代わりに、マルチヘッド適応カーネル(MAK)モジュールは複数の動的カーネルを生成する。
本手法により、コンボリューションカーネルは様々な局所的特徴に適応できる。
- 参考スコア(独自算出の注目度): 1.0787328610467801
- License:
- Abstract: Human activity recognition is increasingly vital for supporting independent living, particularly for the elderly and those in need of assistance. Domestic service robots with monitoring capabilities can enhance safety and provide essential support. Although image-based methods have advanced considerably in the past decade, their adoption remains limited by concerns over privacy and sensitivity to low-light or dark conditions. As an alternative, millimetre-wave (mmWave) radar can produce point cloud data which is privacy-preserving. However, processing the sparse and noisy point clouds remains a long-standing challenge. While graph-based methods and attention mechanisms show promise, they predominantly rely on "fixed" kernels; kernels that are applied uniformly across all neighbourhoods, highlighting the need for adaptive approaches that can dynamically adjust their kernels to the specific geometry of each local neighbourhood in point cloud data. To overcome this limitation, we introduce an adaptive approach within the graph convolutional framework. Instead of a single shared weight function, our Multi-Head Adaptive Kernel (MAK) module generates multiple dynamic kernels, each capturing different aspects of the local feature space. By progressively refining local features while maintaining global spatial context, our method enables convolution kernels to adapt to varying local features. Experimental results on benchmark datasets confirm the effectiveness of our approach, achieving state-of-the-art performance in human activity recognition. Our source code is made publicly available at: https://github.com/Gbouna/MAK-GCN
- Abstract(参考訳): 人間活動認識は、特に高齢者や支援を必要とする人々のために、自立生活を支援するためにますます不可欠になっている。
監視機能を備えた国内サービスロボットは、安全性を高め、不可欠なサポートを提供する。
画像ベースの手法は過去10年間に大きく進歩してきたが、プライバシーや低照度や暗黒条件への敏感性への懸念から採用は限られている。
代替として、ミリ波(mmWave)レーダーはプライバシ保護のポイントクラウドデータを生成することができる。
しかし、スパースとノイズの多い点のクラウドを処理することは、長年にわたる課題である。
グラフベースの手法とアテンションメカニズムは有望であるが、それらは主に「固定された」カーネルに依存しており、すべての近傍で均一に適用されるカーネルは、ポイントクラウドデータ内の各近傍の特定の幾何学にカーネルを動的に調整できる適応的なアプローチの必要性を強調している。
この制限を克服するために、グラフ畳み込みフレームワーク内で適応的なアプローチを導入する。
単一の共有重み関数の代わりに、Multi-Head Adaptive Kernel (MAK)モジュールは複数の動的カーネルを生成し、それぞれが局所的な特徴空間の異なる側面をキャプチャする。
グローバルな空間的コンテキストを維持しながら局所的な特徴を徐々に洗練することにより、コンボリューションカーネルは局所的な特徴に適応することができる。
提案手法の有効性をベンチマークで検証し,人間の行動認識における最先端性能を実現する。
私たちのソースコードは、https://github.com/Gbouna/MAK-GCNで公開されています。
関連論文リスト
- Multi-view Structural Convolution Network for Domain-Invariant Point Cloud Recognition of Autonomous Vehicles [3.3748750222488657]
ドメイン不変点クラウド認識のためのマルチビュー構造畳み込みネットワーク(MSCN)。
MSCNは、ポイントクラウドから局所的なコンテキスト幾何学的特徴を抽出する構造畳み込み層(Structure Convolution Layers, SCL)から構成される。
MSCNは、ソースドメインポイントクラウドから派生した見えないドメインポイントクラウドでトレーニングすることで、機能表現を強化する。
論文 参考訳(メタデータ) (2025-01-27T18:25:35Z) - CODA: A COst-efficient Test-time Domain Adaptation Mechanism for HAR [25.606795179822885]
モバイルセンシングのためのCOst- efficient Domain Adaptation 機構であるCODAを提案する。
CODAは、データ分散の観点からのリアルタイムドリフトにアクティブラーニング理論を用いて対処する。
我々はCODAによるオンライン適応の可能性と可能性を実証する。
論文 参考訳(メタデータ) (2024-03-22T02:50:42Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Video Salient Object Detection via Adaptive Local-Global Refinement [7.723369608197167]
ビデオ・サリエント・オブジェクト検出(VSOD)は多くの視覚アプリケーションにおいて重要な課題である。
vsodのための適応型局所的グローバルリファインメントフレームワークを提案する。
重み付け手法は特徴相関を更に活用し,ネットワークにより識別的な特徴表現を学習させることができることを示す。
論文 参考訳(メタデータ) (2021-04-29T14:14:11Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - INSIDE: Steering Spatial Attention with Non-Imaging Information in CNNs [14.095546881696311]
本稿では,非画像情報をセグメンテーションネットワークに統合して性能向上を図ることの課題について考察する。
本研究では,非画像情報に基づく空間的局所化を実現する機構を提案する。
我々の手法はエンドツーエンドで訓練でき、追加の監督を必要としない。
論文 参考訳(メタデータ) (2020-08-21T13:32:05Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - MNEW: Multi-domain Neighborhood Embedding and Weighting for Sparse Point
Clouds Segmentation [1.2380933178502298]
マルチドメインの近傍埋め込みや,その幾何学的距離,特徴的類似度,周辺空間の疎度に基づく注意重み付けなどを含むMNEWを提案する。
MNEWは、LiDARベースの自動運転認識の適用において重要であるスパースポイントクラウドの最高性能を達成する。
論文 参考訳(メタデータ) (2020-04-05T18:02:07Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。