論文の概要: SequentialPointNet: A strong parallelized point cloud sequence network
for 3D action recognition
- arxiv url: http://arxiv.org/abs/2111.08492v1
- Date: Tue, 16 Nov 2021 14:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 20:07:15.604598
- Title: SequentialPointNet: A strong parallelized point cloud sequence network
for 3D action recognition
- Title(参考訳): sequentialpointnet: 3次元動作認識のための強並列化ポイントクラウドシーケンスネットワーク
- Authors: Xing Li, Qian Huang, Zhijian Wang, Zhenjie Hou, Tianjin Yang
- Abstract要約: クロスフレームな地域地区は通常建設されている。
本稿では,3次元行動認識のための強力な並列化点雲列ネットワークSequentialPointNetを提案する。
- 参考スコア(独自算出の注目度): 11.50057411285458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Point cloud sequences of 3D human actions exhibit unordered intra-frame
spatial information and ordered interframe temporal information. In order to
capture the spatiotemporal structures of the point cloud sequences, cross-frame
spatio-temporal local neighborhoods around the centroids are usually
constructed. However, the computationally expensive construction procedure of
spatio-temporal local neighborhoods severely limits the parallelism of models.
Moreover, it is unreasonable to treat spatial and temporal information equally
in spatio-temporal local learning, because human actions are complicated along
the spatial dimensions and simple along the temporal dimension. In this paper,
to avoid spatio-temporal local encoding, we propose a strong parallelized point
cloud sequence network referred to as SequentialPointNet for 3D action
recognition. SequentialPointNet is composed of two serial modules, i.e., an
intra-frame appearance encoding module and an inter-frame motion encoding
module. For modeling the strong spatial structures of human actions, each point
cloud frame is processed in parallel in the intra-frame appearance encoding
module and the feature vector of each frame is output to form a feature vector
sequence that characterizes static appearance changes along the temporal
dimension. For modeling the weak temporal changes of human actions, in the
inter-frame motion encoding module, the temporal position encoding and the
hierarchical pyramid pooling strategy are implemented on the feature vector
sequence. In addition, in order to better explore spatio-temporal content,
multiple level features of human movements are aggregated before performing the
end-to-end 3D action recognition. Extensive experiments conducted on three
public datasets show that SequentialPointNet outperforms stateof-the-art
approaches.
- Abstract(参考訳): 3次元人間の行動のポイントクラウドシーケンスは、フレーム内空間情報とフレーム間時間情報の順序付けされていない。
点雲列の時空間構造を捉えるために、遠心部周辺の時空間-時空間近傍は通常構築される。
しかし、時空間局所近傍の計算的に高価な構築手順は、モデルの並列性を著しく制限する。
さらに,空間的・時間的情報を時空間的学習において等しく扱うことは不可能であり,人間の行動は空間的次元に沿って複雑であり,時間的次元に沿って単純である。
本稿では,時空間的局所符号化を避けるために,シーケンシャルポイントネットと呼ばれる強並列化点雲列ネットワークを提案する。
sequentialpointnetは2つのシリアルモジュール、すなわちフレーム内外観エンコーディングモジュールとフレーム間動きエンコーディングモジュールで構成されている。
人間の行動の強い空間構造をモデル化するために、フレーム内外観符号化モジュールにおいて各点雲フレームを並列に処理し、各フレームの特徴ベクトルを出力し、時間次元に沿った静的な外観変化を特徴付ける特徴ベクトルシーケンスを形成する。
人間の行動の弱い時間的変化をモデル化するために、フレーム間移動符号化モジュールにおいて、特徴ベクトル列上に時間的位置符号化と階層的ピラミッドプール戦略を実行する。
また、時空間コンテンツをよりよく探索するために、エンドツーエンドの3D動作認識を行う前に、人間の動作の複数のレベル特徴を集約する。
3つの公開データセットで実施された大規模な実験は、SequentialPointNetが最先端のアプローチより優れていることを示している。
関連論文リスト
- KAN-HyperpointNet for Point Cloud Sequence-Based 3D Human Action Recognition [14.653930908806357]
D-Hyperpointは、a-Hyperpointdingモジュールによって生成される新しいデータ型である。
D-Hyperpointは、局所運動とグローバル静置姿勢の両方をカプセル化し、各瞬間における単位人の行動を効果的に要約する。
また、D-Hyperpointsのネストしたグループ化に応用して情報識別を学習するD-Hyperpoint KanMixerモジュールを提案する。
論文 参考訳(メタデータ) (2024-09-14T14:11:45Z) - SPiKE: 3D Human Pose from Point Cloud Sequences [1.8024397171920885]
3D Human Pose Estimation (HPE) は、RGB画像や深度マップ、点雲などの2次元または3次元表現から、人間の身体のキーポイントを3次元空間内に配置するタスクである。
本稿では,点雲列を用いた3次元HPEの新しい手法であるSPiKEを提案する。
3D HPEのITOPベンチマークの実験では、SPiKEは89.19%のmAPに達し、推論時間を大幅に短縮して最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-09-03T13:22:01Z) - 3DMambaComplete: Exploring Structured State Space Model for Point Cloud Completion [19.60626235337542]
3DMambaCompleteは、新しいMambaフレームワーク上に構築されたポイントクラウド補完ネットワークである。
Mambaの選択メカニズムを使ってポイントクラウド機能をエンコードし、ハイパーポイントのセットを予測する。
変形法はハイパーポイントの2次元メッシュ表現を点雲再構成のための微細な3次元構造に変換する。
論文 参考訳(メタデータ) (2024-04-10T15:45:03Z) - Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - PSTNet: Point Spatio-Temporal Convolution on Point Cloud Sequences [51.53563462897779]
本稿では,ポイントクラウドシーケンスの情報表現を実現するために,PST畳み込みを提案する。
PSTは3次元空間における局所的構造点を捉えるために空間畳み込みを用い、時間次元に沿った空間領域のダイナミクスをモデル化するために時間畳み込みを用いる。
提案したPST畳み込みを深層ネットワーク,すなわちPSTNetに組み込んで,階層的に点群列の特徴を抽出する。
論文 参考訳(メタデータ) (2022-05-27T02:14:43Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - Anchor-Based Spatial-Temporal Attention Convolutional Networks for
Dynamic 3D Point Cloud Sequences [20.697745449159097]
動的3次元点雲列を処理するために,アンカー型時空間注意畳み込み演算(astaconv)を提案する。
提案する畳み込み操作は、各点の周囲に複数の仮想アンカーを設定することにより、各点の周囲にレギュラーレセプティブフィールドを構築する。
提案手法は,局所領域内の構造化情報をよりよく活用し,動的3次元点雲列から空間-時間埋め込み特徴を学習する。
論文 参考訳(メタデータ) (2020-12-20T07:35:37Z) - SoftPoolNet: Shape Descriptor for Point Cloud Completion and
Classification [93.54286830844134]
本稿では,点雲に基づく3次元オブジェクトの補完と分類手法を提案する。
デコーダの段階では,グローバルな活性化エントロピーの最大化を目的とした新しい演算子である地域畳み込みを提案する。
我々は,オブジェクトの完成度や分類,最先端の精度の達成など,異なる3次元タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2020-08-17T14:32:35Z) - CaSPR: Learning Canonical Spatiotemporal Point Cloud Representations [72.4716073597902]
本研究では,動的あるいは動いた物体の標準点クラウド表現を学習する手法を提案する。
本稿では, 形状再構成, カメラポーズ推定, 連続時間列再構成, 対応推定など, 様々な応用における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-08-06T17:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。