論文の概要: RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds
- arxiv url: http://arxiv.org/abs/2205.11028v1
- Date: Mon, 23 May 2022 04:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 12:31:26.358463
- Title: RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds
- Title(参考訳): RCP:3次元点雲上のシーンフロー推定のための逐次閉点
- Authors: Xiaodong Gu, Chengzhou Tang, Weihao Yuan, Zuozhuo Dai, Siyu Zhu, Ping
Tan
- Abstract要約: 問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
提案手法は,3次元シーンフロー推定とポイントクラウド登録の両方において,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 44.034836961967144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D motion estimation including scene flow and point cloud registration has
drawn increasing interest. Inspired by 2D flow estimation, recent methods
employ deep neural networks to construct the cost volume for estimating
accurate 3D flow. However, these methods are limited by the fact that it is
difficult to define a search window on point clouds because of the irregular
data structure. In this paper, we avoid this irregularity by a simple yet
effective method.We decompose the problem into two interlaced stages, where the
3D flows are optimized point-wisely at the first stage and then globally
regularized in a recurrent network at the second stage. Therefore, the
recurrent network only receives the regular point-wise information as the
input.In the experiments, we evaluate the proposed method on both the 3D scene
flow estimation and the point cloud registration task. For 3D scene flow
estimation, we make comparisons on the widely used FlyingThings3D and
KITTIdatasets. For point cloud registration, we follow previous works and
evaluate the data pairs with large pose and partially overlapping from
ModelNet40. The results show that our method outperforms the previous method
and achieves a new state-of-the-art performance on both 3D scene flow
estimation and point cloud registration, which demonstrates the superiority of
the proposed zero-order method on irregular point cloud data.
- Abstract(参考訳): シーンフローや点雲の登録を含む3次元運動推定が注目されている。
2次元フロー推定にインスパイアされた最近の手法では、深層ニューラルネットワークを用いて正確な3次元フローを推定するためのコストボリュームを構築している。
しかし,これらの手法は不規則なデータ構造のため,点雲上の探索窓の定義が困難であることから制限されている。
本稿では,この不規則さを,単純かつ効果的な手法で回避し,第1段階では3dフローを点的に最適化し,第2段階では再帰ネットワークでグローバルに正規化する2つのインターレースステージに分解する。
そこで,本実験では3次元シーンフロー推定と点雲登録タスクの両方において提案手法の評価を行った。
3次元シーンフロー推定のために,flyingthings3dとkittidatasetの比較を行った。
ポイントクラウドの登録には、前回の作業に従い、modelnet40から大きなポーズと部分的に重複したデータペアを評価します。
その結果,提案手法は従来の手法よりも優れており,不規則点クラウドデータ上でのゼロオーダー手法の優位性を示す3次元シーンフロー推定とポイントクラウド登録の両方において,新たな最先端性能を実現する。
関連論文リスト
- PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - DELFlow: Dense Efficient Learning of Scene Flow for Large-Scale Point
Clouds [42.64433313672884]
2次元グリッドに3次元座標を格納することで,原点を高密度フォーマットに正規化する。
既存の作業でよく使われるサンプリング操作とは異なり、密度の高い2D表現はほとんどの点を保存する。
また,情報損失問題を緩和する新しいワーププロジェクション手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T16:37:24Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - 3D Scene Flow Estimation on Pseudo-LiDAR: Bridging the Gap on Estimating
Point Motion [19.419030878019974]
3次元シーンフローは、3次元ユークリッド空間において、現在の時刻の点が次回に流れる様子を特徴付ける。
3次元空間に2次元画素の密接な性質を導入することにより、予測されたシーンフローの安定性が向上する。
より効果的な3次元シーンフローの教師なし学習を実現するために, 差分整合損失を提案する。
論文 参考訳(メタデータ) (2022-09-27T03:27:09Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。