論文の概要: RFNet-4D++: Joint Object Reconstruction and Flow Estimation from 4D
Point Clouds with Cross-Attention Spatio-Temporal Features
- arxiv url: http://arxiv.org/abs/2203.16482v3
- Date: Tue, 17 Oct 2023 17:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 00:53:57.157837
- Title: RFNet-4D++: Joint Object Reconstruction and Flow Estimation from 4D
Point Clouds with Cross-Attention Spatio-Temporal Features
- Title(参考訳): RFNet-4D++:4次元点雲からの連成物体再構成と流れ推定
- Authors: Tuan-Anh Vu, Duc Thanh Nguyen, Binh-Son Hua, Quang-Hieu Pham and
Sai-Kit Yeung
- Abstract要約: RFNet-4D++と呼ばれる新しいネットワークアーキテクチャを提案する。
提案手法は,既存手法よりも高速で,フロー推定とオブジェクト再構成の両面での最先端性能を実現している。
- 参考スコア(独自算出の注目度): 32.35341041093946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object reconstruction from 3D point clouds has been a long-standing research
problem in computer vision and computer graphics, and achieved impressive
progress. However, reconstruction from time-varying point clouds (a.k.a. 4D
point clouds) is generally overlooked. In this paper, we propose a new network
architecture, namely RFNet-4D++, that jointly reconstructs objects and their
motion flows from 4D point clouds. The key insight is simultaneously performing
both tasks via learning of spatial and temporal features from a sequence of
point clouds can leverage individual tasks, leading to improved overall
performance. To prove this ability, we design a temporal vector field learning
module using an unsupervised learning approach for flow estimation task,
leveraged by supervised learning of spatial structures for object
reconstruction. Extensive experiments and analyses on benchmark datasets
validated the effectiveness and efficiency of our method. As shown in
experimental results, our method achieves state-of-the-art performance on both
flow estimation and object reconstruction while performing much faster than
existing methods in both training and inference. Our code and data are
available at https://github.com/hkust-vgd/RFNet-4D
- Abstract(参考訳): 3dポイントクラウドからのオブジェクト復元は、コンピュータビジョンとコンピュータグラフィックスにおける長年の研究課題であり、素晴らしい進歩を遂げてきた。
しかし、時変点雲(すなわち4D点雲)からの復元は一般的に見過ごされている。
本稿では,4次元点雲から物体と動きの流れを協調的に再構成する新しいネットワークアーキテクチャrfnet-4d++を提案する。
重要な洞察は、一連のポイントクラウドから空間的特徴と時間的特徴を学習することで、同時にタスクを実行することだ。
この能力を証明するため,物体再構成のための空間構造の教師付き学習により,非教師付き学習手法を用いて時間ベクトル場学習モジュールを設計する。
ベンチマークデータセットの大規模な実験と分析により,本手法の有効性と有効性を検証した。
実験結果に示すように,本手法は流速推定と物体再構成の両面での最先端性能を実現し,既存の手法に比べてトレーニングと推論の両面ではるかに高速である。
私たちのコードとデータはhttps://github.com/hkust-vgd/rfnet-4dで入手できます。
関連論文リスト
- PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Test-Time Augmentation for 3D Point Cloud Classification and
Segmentation [40.62640761825697]
データ拡張は、ディープラーニングタスクのパフォーマンスを向上させるための強力なテクニックである。
本研究は,3次元点雲に対するTTA(Test-time augmentation)について検討する。
論文 参考訳(メタデータ) (2023-11-22T04:31:09Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - CLR-GAM: Contrastive Point Cloud Learning with Guided Augmentation and
Feature Mapping [12.679625717350113]
本稿では、効率的な動的探索戦略のためのガイド拡張(GA)を備えた対照的な学習ベースのフレームワークであるCLR-GAMを提案する。
提案手法がシミュレーションおよび実世界の3Dポイントクラウドデータセット上で最先端のパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2023-02-28T04:38:52Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Learning Parallel Dense Correspondence from Spatio-Temporal Descriptors
for Efficient and Robust 4D Reconstruction [43.60322886598972]
本稿では,点雲列からの4次元形状再構成の課題に焦点をあてる。
本稿では,クロスフレーム占有領域間の連続的変換関数を捉えることにより,人間の3次元形状の時間変化を学ぶための新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-30T13:36:03Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。