論文の概要: PV-RAFT: Point-Voxel Correlation Fields for Scene Flow Estimation of
Point Clouds
- arxiv url: http://arxiv.org/abs/2012.00987v2
- Date: Wed, 12 May 2021 08:44:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 04:00:43.598715
- Title: PV-RAFT: Point-Voxel Correlation Fields for Scene Flow Estimation of
Point Clouds
- Title(参考訳): PV-RAFT:点雲のシーンフロー推定のための点-軸相関場
- Authors: Yi Wei, Ziyi Wang, Yongming Rao, Jiwen Lu, Jie Zhou
- Abstract要約: 本稿では,点雲からのシーンフローを推定するPV-RAFT(Point-Voxel Recurrent All-Pairs Field Transforms)法を提案する。
提案手法をFlyingThings3DとKITTI Scene Flow 2015データセットで評価した。
- 参考スコア(独自算出の注目度): 89.76093400242088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a Point-Voxel Recurrent All-Pairs Field Transforms
(PV-RAFT) method to estimate scene flow from point clouds. Since point clouds
are irregular and unordered, it is challenging to efficiently extract features
from all-pairs fields in the 3D space, where all-pairs correlations play
important roles in scene flow estimation. To tackle this problem, we present
point-voxel correlation fields, which capture both local and long-range
dependencies of point pairs. To capture point-based correlations, we adopt the
K-Nearest Neighbors search that preserves fine-grained information in the local
region. By voxelizing point clouds in a multi-scale manner, we construct
pyramid correlation voxels to model long-range correspondences. Integrating
these two types of correlations, our PV-RAFT makes use of all-pairs relations
to handle both small and large displacements. We evaluate the proposed method
on the FlyingThings3D and KITTI Scene Flow 2015 datasets. Experimental results
show that PV-RAFT outperforms state-of-the-art methods by remarkable margins.
- Abstract(参考訳): 本稿では,点雲からのシーンフローを推定するPV-RAFT法を提案する。
点雲は不規則で秩序がないため、3次元空間における全対の場から特徴を効率的に抽出することは困難であり、全対の相関がシーンフロー推定において重要な役割を果たす。
この問題に対処するために、点対の局所的および長距離的依存関係をキャプチャする点-ボクセル相関場を提案する。
点に基づく相関を捉えるために,k-nearest近傍探索を適用し,局所領域のきめ細かい情報を保存する。
複数スケールで点雲を酸化することにより、長距離対応をモデル化するためのピラミッド相関ボクセルを構築する。
PV-RAFTは,これら2種類の相関関係を統合し,全対関係を用いて,小型・大型の変位の両処理を行う。
提案手法をFlyingThings3DとKITTI Scene Flow 2015データセットで評価した。
実験の結果,PV-RAFTは最先端手法よりも顕著に優れていた。
関連論文リスト
- Self-Supervised Scene Flow Estimation with Point-Voxel Fusion and Surface Representation [30.355128117680444]
シーンフロー推定は、点雲の2つの連続するフレーム間の点の3次元運動場を生成することを目的としている。
既存の点ベースの手法は点雲の不規則性を無視し、長距離依存を捉えるのが困難である。
本稿では,分散グリッドアテンションとシフトウインドウ戦略に基づくボクセルブランチを用いて,長距離依存性を捕捉するポイントボクセル融合法を提案する。
論文 参考訳(メタデータ) (2024-10-17T09:05:15Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - A Unified BEV Model for Joint Learning of 3D Local Features and Overlap
Estimation [12.499361832561634]
本稿では,3次元局所特徴の同時学習と重なり推定のための統合鳥眼ビュー(BEV)モデルを提案する。
提案手法は,特に重複の少ないシーンにおいて,重複予測における既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-28T12:01:16Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - IDEA-Net: Dynamic 3D Point Cloud Interpolation via Deep Embedding
Alignment [58.8330387551499]
我々は、点方向軌跡(すなわち滑らかな曲線)の推定として問題を定式化する。
本稿では,学習した時間的一貫性の助けを借りて問題を解消する,エンドツーエンドのディープラーニングフレームワークであるIDEA-Netを提案する。
各種点群における本手法の有効性を実証し, 定量的かつ視覚的に, 最先端の手法に対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2022-03-22T10:14:08Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - PU-Flow: a Point Cloud Upsampling Networkwith Normalizing Flows [58.96306192736593]
本稿では,正規化フローを組み込んだPU-Flowについて述べる。
具体的には、重みが局所的な幾何学的文脈から適応的に学習される潜在空間において、アップサンプリング過程を点として定式化する。
提案手法は, 再現性, 近接精度, 計算効率の観点から, 最先端の深層学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-13T07:45:48Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。