論文の概要: DELFlow: Dense Efficient Learning of Scene Flow for Large-Scale Point
Clouds
- arxiv url: http://arxiv.org/abs/2308.04383v1
- Date: Tue, 8 Aug 2023 16:37:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:09:07.814381
- Title: DELFlow: Dense Efficient Learning of Scene Flow for Large-Scale Point
Clouds
- Title(参考訳): DELFlow: 大規模クラウドのためのシーンフローの高精度学習
- Authors: Chensheng Peng, Guangming Wang, Xian Wan Lo, Xinrui Wu, Chenfeng Xu,
Masayoshi Tomizuka, Wei Zhan, Hesheng Wang
- Abstract要約: 2次元グリッドに3次元座標を格納することで,原点を高密度フォーマットに正規化する。
既存の作業でよく使われるサンプリング操作とは異なり、密度の高い2D表現はほとんどの点を保存する。
また,情報損失問題を緩和する新しいワーププロジェクション手法を提案する。
- 参考スコア(独自算出の注目度): 42.64433313672884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Point clouds are naturally sparse, while image pixels are dense. The
inconsistency limits feature fusion from both modalities for point-wise scene
flow estimation. Previous methods rarely predict scene flow from the entire
point clouds of the scene with one-time inference due to the memory
inefficiency and heavy overhead from distance calculation and sorting involved
in commonly used farthest point sampling, KNN, and ball query algorithms for
local feature aggregation. To mitigate these issues in scene flow learning, we
regularize raw points to a dense format by storing 3D coordinates in 2D grids.
Unlike the sampling operation commonly used in existing works, the dense 2D
representation 1) preserves most points in the given scene, 2) brings in a
significant boost of efficiency, and 3) eliminates the density gap between
points and pixels, allowing us to perform effective feature fusion. We also
present a novel warping projection technique to alleviate the information loss
problem resulting from the fact that multiple points could be mapped into one
grid during projection when computing cost volume. Sufficient experiments
demonstrate the efficiency and effectiveness of our method, outperforming the
prior-arts on the FlyingThings3D and KITTI dataset.
- Abstract(参考訳): 点雲は自然に狭く、画像ピクセルは密度が高い。
不整合限界は、ポイントワイドシーンフロー推定のための両モードからの融合である。
従来の手法では,局所的な特徴集約のための最遠点サンプリング,kn,ボール問合せアルゴリズムに関わる距離計算とソートによるメモリ効率の非効率とオーバーヘッドのため,一時的推論によってシーン全体のシーンフローを予測することはほとんどなかった。
シーンフロー学習におけるこれらの問題を緩和するため、3次元座標を2次元グリッドに格納することにより、生点を濃密な形式に規則化する。
既存の作品でよく使われるサンプリング操作とは異なり,密度2次元表現
1)所定のシーンのほとんどのポイントを保存する。
2)効率の大幅な向上をもたらし、
3) 点と画素間の密度ギャップを排除し, 効率的な特徴融合を実現する。
また,複数の点を投影中に1つのグリッドにマッピング可能であることによる情報損失問題を軽減するための新しいワーピング投影手法を提案する。
十分な実験により,flyingthings3dとkittiデータセットの先行技術に匹敵する,本手法の有効性と有効性が実証された。
関連論文リスト
- Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - 3D Scene Flow Estimation on Pseudo-LiDAR: Bridging the Gap on Estimating
Point Motion [19.419030878019974]
3次元シーンフローは、3次元ユークリッド空間において、現在の時刻の点が次回に流れる様子を特徴付ける。
3次元空間に2次元画素の密接な性質を導入することにより、予測されたシーンフローの安定性が向上する。
より効果的な3次元シーンフローの教師なし学習を実現するために, 差分整合損失を提案する。
論文 参考訳(メタデータ) (2022-09-27T03:27:09Z) - RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds [44.034836961967144]
シーンフローや点雲の登録を含む3次元運動推定が注目されている。
最近の手法では、正確な3次元フローを推定するためのコストボリュームを構築するために、ディープニューラルネットワークを使用している。
問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
論文 参考訳(メタデータ) (2022-05-23T04:04:30Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - DV-Det: Efficient 3D Point Cloud Object Detection with Dynamic
Voxelization [0.0]
本稿では,効率的な3Dポイント・クラウド・オブジェクト検出のための新しい2段階フレームワークを提案する。
生のクラウドデータを3D空間で直接解析するが、目覚ましい効率と精度を実現する。
我々は,75 FPSでKITTI 3Dオブジェクト検出データセットを,25 FPSの推論速度で良好な精度でOpenデータセット上で強調する。
論文 参考訳(メタデータ) (2021-07-27T10:07:39Z) - Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk [59.87525177207915]
シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T03:12:42Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。