論文の概要: PRENet: A Plane-Fit Redundancy Encoding Point Cloud Sequence Network for Real-Time 3D Action Recognition
- arxiv url: http://arxiv.org/abs/2405.06929v1
- Date: Sat, 11 May 2024 06:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:22:14.377867
- Title: PRENet: A Plane-Fit Redundancy Encoding Point Cloud Sequence Network for Real-Time 3D Action Recognition
- Title(参考訳): PreNet: リアルタイム3D行動認識のためのPlane-Fit冗長性符号化ポイントクラウドシーケンスネットワーク
- Authors: Shenglin He, Xiaoyang Qu, Jiguang Wan, Guokuan Li, Changsheng Xie, Jianzong Wang,
- Abstract要約: そこで本稿では,PrepreNet というPlane-Fit 冗長時間時間点クラウドシークエンスネットワークを提案する。
提案手法の基本的な概念は,空間的冗長性を緩和するための平面フィッティングの利用である。
本手法は,他の最先端手法に比べてほぼ4倍高速でありながら,ほぼ同一の認識精度を実現する。
- 参考スコア(独自算出の注目度): 20.922330827531162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing human actions from point cloud sequence has attracted tremendous attention from both academia and industry due to its wide applications. However, most previous studies on point cloud action recognition typically require complex networks to extract intra-frame spatial features and inter-frame temporal features, resulting in an excessive number of redundant computations. This leads to high latency, rendering them impractical for real-world applications. To address this problem, we propose a Plane-Fit Redundancy Encoding point cloud sequence network named PRENet. The primary concept of our approach involves the utilization of plane fitting to mitigate spatial redundancy within the sequence, concurrently encoding the temporal redundancy of the entire sequence to minimize redundant computations. Specifically, our network comprises two principal modules: a Plane-Fit Embedding module and a Spatio-Temporal Consistency Encoding module. The Plane-Fit Embedding module capitalizes on the observation that successive point cloud frames exhibit unique geometric features in physical space, allowing for the reuse of spatially encoded data for temporal stream encoding. The Spatio-Temporal Consistency Encoding module amalgamates the temporal structure of the temporally redundant part with its corresponding spatial arrangement, thereby enhancing recognition accuracy. We have done numerous experiments to verify the effectiveness of our network. The experimental results demonstrate that our method achieves almost identical recognition accuracy while being nearly four times faster than other state-of-the-art methods.
- Abstract(参考訳): ポイントクラウドシーケンスから人間の行動を認識することは、その幅広い応用により、学術と産業の両方から大きな注目を集めている。
しかし、ポイントクラウドの行動認識に関するこれまでの研究は、一般にフレーム内の空間的特徴とフレーム間の時間的特徴を抽出するために複雑なネットワークを必要とする。
これによりレイテンシが高くなり、現実のアプリケーションでは非現実的になります。
そこで本研究では,Plane-Fit Redundancy Encoding Point Cloud Sequence NetworkであるPrepreNetを提案する。
提案手法の基本的な概念は,空間的冗長性を軽減するために平面フィッティングを用いることで,全列の時間的冗長性を同時に符号化し,冗長な計算を最小化することである。
具体的には,Plane-Fit EmbeddingモジュールとSpatio-Temporal Consistency Encodingモジュールの2つの主要モジュールで構成されている。
Plane-Fit Embeddingモジュールは、連続する点の雲のフレームが物理空間にユニークな幾何学的特徴を示すという観察に基づいており、空間的に符号化されたデータを時間的ストリームエンコーディングのために再利用することができる。
時空間配置と時間的に冗長な部分の時間構造を対応付けて、認識精度を向上させる。
我々は,ネットワークの有効性を検証するために,数多くの実験を行った。
実験の結果,本手法は,他の最先端手法に比べてほぼ4倍高速でありながら,ほぼ同一の認識精度が得られた。
関連論文リスト
- NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - MAPLE: Masked Pseudo-Labeling autoEncoder for Semi-supervised Point
Cloud Action Recognition [160.49403075559158]
本稿では,Pseudo-Labeling autoEncoder (textbfMAPLE) フレームワークを提案する。
特に、MAPLEのバックボーンとして、新規で効率的なtextbfDecoupled textbfspatial-textbftemporal TranstextbfFormer(textbfDestFormer)を設計する。
MAPLEは3つの公開ベンチマークにおいて優れた結果を得て、MSR-Action3の精度を8.08%向上させる。
論文 参考訳(メタデータ) (2022-09-01T12:32:40Z) - Temporal Point Cloud Completion with Pose Disturbance [32.536545112645335]
限られた翻訳と回転によるポーズ乱れを伴うスパース入力から完全点雲を提供する。
また、時間情報を用いて完了モデルを強化し、入力シーケンスで出力を精算する。
我々のフレームワークは、時間的情報を利用して、限られた変換で時間的一貫性を確保する最初のフレームワークです。
論文 参考訳(メタデータ) (2022-02-07T11:41:12Z) - Deep Point Cloud Reconstruction [74.694733918351]
3Dスキャンから得られる点雲は、しばしばスパース、ノイズ、不規則である。
これらの問題に対処するため、最近の研究は別々に行われ、不正確な点雲を密度化、復調し、完全な不正確な点雲を観測している。
本研究では,1) 初期密度化とデノナイズのための3次元スパース集積時間ガラスネットワーク,2) 離散ボクセルを3Dポイントに変換するトランスフォーマーによる改良,の2段階からなる深部点雲再構成ネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-23T07:53:28Z) - Real-time 3D human action recognition based on Hyperpoint sequence [14.218567196931687]
リアルタイム3次元行動認識のための軽量で効果的な点列ネットワークを提案する。
SequentialPointNetは、時間的時間的局所構造をキャプチャする代わりに、静的な外見の時間的進化をコード化し、人間の行動を認識する。
広く使用されている3つの3次元行動認識データセットの実験により、提案されたSequentialPointNetは、既存のアプローチよりも最大10倍高速で、競合する分類性能を達成することが示された。
論文 参考訳(メタデータ) (2021-11-16T14:13:32Z) - Spatio-temporal Modeling for Large-scale Vehicular Networks Using Graph
Convolutional Networks [110.80088437391379]
SMARTと呼ばれるグラフベースのフレームワークが提案され、大規模な地理的領域にわたるV2I通信遅延の統計をモデル化し、追跡する。
深層Q-networksアルゴリズムと統合したグラフ畳み込みネットワークを用いたグラフ再構築型手法を開発する。
その結果,提案手法は,モデル化の精度と効率と,大規模車両ネットワークにおける遅延性能を有意に向上させることが示された。
論文 参考訳(メタデータ) (2021-03-13T06:56:29Z) - Fast Video Salient Object Detection via Spatiotemporal Knowledge
Distillation [20.196945571479002]
本稿では,映像の有能な物体検出に適した軽量ネットワークを提案する。
具体的には,空間的特徴を洗練させるために,サリエンシガイダンスの埋め込み構造と空間知識蒸留を組み合わせた。
時間的側面において,ネットワークが頑健な時間的特徴を学習することのできる時間的知識蒸留戦略を提案する。
論文 参考訳(メタデータ) (2020-10-20T04:48:36Z) - ASAP-Net: Attention and Structure Aware Point Cloud Sequence
Segmentation [49.15948235059343]
我々は、ASAPと呼ばれるフレキシブルモジュールにより、ポイントテンポラルクラウド機能をさらに改善する。
我々のASAPモジュールは、フレーム間の比較的情報性の高い局所的特徴を連続的に融合させるために、注意深い時間的埋め込み層を含んでいる。
本稿では、ポイントクラウドシーケンシャルセグメンテーションのための異なる計算バックボーンネットワークを持つASAPモジュールの一般化能力を示す。
論文 参考訳(メタデータ) (2020-08-12T07:37:16Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - Unsupervised Learning of Global Registration of Temporal Sequence of
Point Clouds [16.019588704177288]
点雲のグローバルな登録は、2次元または3次元の点集合の配列の最適なアライメントを見つけることを目的としている。
本稿では,現在ある深層学習技術を利用して,点雲の時間的シーケンスからグローバルな登録を教師なし学習する手法を提案する。
論文 参考訳(メタデータ) (2020-06-17T06:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。