論文の概要: RFNet-4D: Joint Object Reconstruction and Flow Estimation from 4D Point
Clouds
- arxiv url: http://arxiv.org/abs/2203.16482v1
- Date: Wed, 30 Mar 2022 17:18:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:44:38.757875
- Title: RFNet-4D: Joint Object Reconstruction and Flow Estimation from 4D Point
Clouds
- Title(参考訳): RFNet-4D:4次元点雲からの連成物体再構成と流れの推定
- Authors: Tuan-Anh Vu, Duc-Thanh Nguyen, Binh-Son Hua, Quang-Hieu Pham and
Sai-Kit Yeung
- Abstract要約: RFNet-4Dと呼ばれる新しいネットワークアーキテクチャを提案する。
提案するネットワークは教師なし学習と教師なし学習の両方を用いて訓練することができる。
本手法は,フロー推定とオブジェクト再構成の両方において最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 25.359060907920366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object reconstruction from 3D point clouds has achieved impressive progress
in the computer vision and computer graphics research field. However,
reconstruction from time-varying point clouds (a.k.a. 4D point clouds) is
generally overlooked. In this paper, we propose a new network architecture,
namely RFNet-4D, that jointly reconstructs objects and their motion flows from
4D point clouds. The key insight is that simultaneously performing both tasks
via learning spatial and temporal features from a sequence of point clouds can
leverage individual tasks and lead to improved overall performance. The
proposed network can be trained using both supervised and unsupervised
learning. To prove this ability, we design a temporal vector field learning
module using an unsupervised learning approach for flow estimation, leveraged
by supervised learning of spatial structures for object reconstruction.
Extensive experiments and analyses on benchmark dataset validated the
effectiveness and efficiency of our method. As shown in experimental results,
our method achieves state-of-the-art performance on both flow estimation and
object reconstruction while performing much faster than existing methods in
both training and inference.
- Abstract(参考訳): 3dポイントクラウドからのオブジェクトの再構築は、コンピュータビジョンとコンピュータグラフィックス研究の分野で素晴らしい進歩を遂げた。
しかし、時変点雲(すなわち4D点雲)からの復元は一般的に見過ごされている。
本稿では,4次元点雲から物体と動きの流れを協調的に再構成する新しいネットワークアーキテクチャrfnet-4dを提案する。
重要な洞察は、複数のポイントクラウドから空間的および時間的特徴を学習することで、複数のタスクを同時に実行することで、個々のタスクを活用し、全体的なパフォーマンスを改善することだ。
提案するネットワークは教師なし学習と教師なし学習の両方を用いて訓練することができる。
この能力を証明するため,物体再構成のための空間構造の教師付き学習により,非教師付き学習手法を用いて時間ベクトル場学習モジュールを設計する。
ベンチマークデータセットの広範な実験と解析により,本手法の有効性と有効性が検証された。
実験結果に示すように,本手法は流速推定と物体再構成の両面での最先端性能を実現し,既存の手法に比べてトレーニングと推論の両面ではるかに高速である。
関連論文リスト
- PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Test-Time Augmentation for 3D Point Cloud Classification and
Segmentation [40.62640761825697]
データ拡張は、ディープラーニングタスクのパフォーマンスを向上させるための強力なテクニックである。
本研究は,3次元点雲に対するTTA(Test-time augmentation)について検討する。
論文 参考訳(メタデータ) (2023-11-22T04:31:09Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - CLR-GAM: Contrastive Point Cloud Learning with Guided Augmentation and
Feature Mapping [12.679625717350113]
本稿では、効率的な動的探索戦略のためのガイド拡張(GA)を備えた対照的な学習ベースのフレームワークであるCLR-GAMを提案する。
提案手法がシミュレーションおよび実世界の3Dポイントクラウドデータセット上で最先端のパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2023-02-28T04:38:52Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Learning Parallel Dense Correspondence from Spatio-Temporal Descriptors
for Efficient and Robust 4D Reconstruction [43.60322886598972]
本稿では,点雲列からの4次元形状再構成の課題に焦点をあてる。
本稿では,クロスフレーム占有領域間の連続的変換関数を捉えることにより,人間の3次元形状の時間変化を学ぶための新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-30T13:36:03Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。