論文の概要: Real-time 3D human action recognition based on Hyperpoint sequence
- arxiv url: http://arxiv.org/abs/2111.08492v3
- Date: Mon, 26 Feb 2024 08:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 01:22:42.716120
- Title: Real-time 3D human action recognition based on Hyperpoint sequence
- Title(参考訳): ハイパーポイントシーケンスに基づくリアルタイム3次元行動認識
- Authors: Xing Li, Qian Huang, Zhijian Wang, Zhenjie Hou, Tianjin Yang, Zhuang
Miao
- Abstract要約: リアルタイム3次元行動認識のための軽量で効果的な点列ネットワークを提案する。
SequentialPointNetは、時間的時間的局所構造をキャプチャする代わりに、静的な外見の時間的進化をコード化し、人間の行動を認識する。
広く使用されている3つの3次元行動認識データセットの実験により、提案されたSequentialPointNetは、既存のアプローチよりも最大10倍高速で、競合する分類性能を達成することが示された。
- 参考スコア(独自算出の注目度): 14.218567196931687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time 3D human action recognition has broad industrial applications, such
as surveillance, human-computer interaction, and healthcare monitoring. By
relying on complex spatio-temporal local encoding, most existing point cloud
sequence networks capture spatio-temporal local structures to recognize 3D
human actions. To simplify the point cloud sequence modeling task, we propose a
lightweight and effective point cloud sequence network referred to as
SequentialPointNet for real-time 3D action recognition. Instead of capturing
spatio-temporal local structures, SequentialPointNet encodes the temporal
evolution of static appearances to recognize human actions. Firstly, we define
a novel type of point data, Hyperpoint, to better describe the temporally
changing human appearances. A theoretical foundation is provided to clarify the
information equivalence property for converting point cloud sequences into
Hyperpoint sequences. Secondly, the point cloud sequence modeling task is
decomposed into a Hyperpoint embedding task and a Hyperpoint sequence modeling
task. Specifically, for Hyperpoint embedding, the static point cloud technology
is employed to convert point cloud sequences into Hyperpoint sequences, which
introduces inherent frame-level parallelism; for Hyperpoint sequence modeling,
a Hyperpoint-Mixer module is designed as the basic building block to learning
the spatio-temporal features of human actions. Extensive experiments on three
widely-used 3D action recognition datasets demonstrate that the proposed
SequentialPointNet achieves competitive classification performance with up to
10X faster than existing approaches.
- Abstract(参考訳): リアルタイム3dヒューマンアクション認識は、監視、人間とコンピュータのインタラクション、医療監視などの幅広い産業応用がある。
複雑な時空間の局所符号化に頼ることで、既存のクラウドシーケンスネットワークは時空間の局所構造をキャプチャして3次元の人間の行動を認識する。
ポイントクラウドシーケンスモデリングタスクを簡略化するために,リアルタイム3次元動作認識のためのシーケンシャルポイントネットと呼ばれる軽量かつ効果的なポイントクラウドシーケンスネットワークを提案する。
SequentialPointNetは、時空間構造をキャプチャする代わりに、静的な外見の時間的進化をコード化し、人間の行動を認識する。
まず,人間の時間変化をより正確に表現するために,新しい種類の点データであるハイパーポイント(hyperpoint)を定義する。
点雲列をハイパーポイント列に変換するための情報等価性を明らかにする理論的基礎を提供する。
次に、ポイントクラウドシーケンスモデリングタスクを、ハイパーポイント埋め込みタスクとハイパーポイントシーケンスモデリングタスクに分解する。
特に、ハイパーポイント埋め込みでは、ポイントクラウドシーケンスをハイパーポイントシーケンスに変換するために静的ポイントクラウド技術を使用し、フレームレベルの並列性を導入している。
広く使われている3つの3Dアクション認識データセットの大規模な実験により、提案されたSequentialPointNetは、既存のアプローチよりも最大10倍高速で、競合する分類性能を達成することが示された。
関連論文リスト
- KAN-HyperpointNet for Point Cloud Sequence-Based 3D Human Action Recognition [14.653930908806357]
D-Hyperpointは、a-Hyperpointdingモジュールによって生成される新しいデータ型である。
D-Hyperpointは、局所運動とグローバル静置姿勢の両方をカプセル化し、各瞬間における単位人の行動を効果的に要約する。
また、D-Hyperpointsのネストしたグループ化に応用して情報識別を学習するD-Hyperpoint KanMixerモジュールを提案する。
論文 参考訳(メタデータ) (2024-09-14T14:11:45Z) - SPiKE: 3D Human Pose from Point Cloud Sequences [1.8024397171920885]
3D Human Pose Estimation (HPE) は、RGB画像や深度マップ、点雲などの2次元または3次元表現から、人間の身体のキーポイントを3次元空間内に配置するタスクである。
本稿では,点雲列を用いた3次元HPEの新しい手法であるSPiKEを提案する。
3D HPEのITOPベンチマークの実験では、SPiKEは89.19%のmAPに達し、推論時間を大幅に短縮して最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-09-03T13:22:01Z) - 3DMambaComplete: Exploring Structured State Space Model for Point Cloud Completion [19.60626235337542]
3DMambaCompleteは、新しいMambaフレームワーク上に構築されたポイントクラウド補完ネットワークである。
Mambaの選択メカニズムを使ってポイントクラウド機能をエンコードし、ハイパーポイントのセットを予測する。
変形法はハイパーポイントの2次元メッシュ表現を点雲再構成のための微細な3次元構造に変換する。
論文 参考訳(メタデータ) (2024-04-10T15:45:03Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - PSTNet: Point Spatio-Temporal Convolution on Point Cloud Sequences [51.53563462897779]
本稿では,ポイントクラウドシーケンスの情報表現を実現するために,PST畳み込みを提案する。
PSTは3次元空間における局所的構造点を捉えるために空間畳み込みを用い、時間次元に沿った空間領域のダイナミクスをモデル化するために時間畳み込みを用いる。
提案したPST畳み込みを深層ネットワーク,すなわちPSTNetに組み込んで,階層的に点群列の特徴を抽出する。
論文 参考訳(メタデータ) (2022-05-27T02:14:43Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - Anchor-Based Spatial-Temporal Attention Convolutional Networks for
Dynamic 3D Point Cloud Sequences [20.697745449159097]
動的3次元点雲列を処理するために,アンカー型時空間注意畳み込み演算(astaconv)を提案する。
提案する畳み込み操作は、各点の周囲に複数の仮想アンカーを設定することにより、各点の周囲にレギュラーレセプティブフィールドを構築する。
提案手法は,局所領域内の構造化情報をよりよく活用し,動的3次元点雲列から空間-時間埋め込み特徴を学習する。
論文 参考訳(メタデータ) (2020-12-20T07:35:37Z) - SoftPoolNet: Shape Descriptor for Point Cloud Completion and
Classification [93.54286830844134]
本稿では,点雲に基づく3次元オブジェクトの補完と分類手法を提案する。
デコーダの段階では,グローバルな活性化エントロピーの最大化を目的とした新しい演算子である地域畳み込みを提案する。
我々は,オブジェクトの完成度や分類,最先端の精度の達成など,異なる3次元タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2020-08-17T14:32:35Z) - CaSPR: Learning Canonical Spatiotemporal Point Cloud Representations [72.4716073597902]
本研究では,動的あるいは動いた物体の標準点クラウド表現を学習する手法を提案する。
本稿では, 形状再構成, カメラポーズ推定, 連続時間列再構成, 対応推定など, 様々な応用における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-08-06T17:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。