論文の概要: 3D Scene Flow Estimation on Pseudo-LiDAR: Bridging the Gap on Estimating
Point Motion
- arxiv url: http://arxiv.org/abs/2209.13130v1
- Date: Tue, 27 Sep 2022 03:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:40:44.772657
- Title: 3D Scene Flow Estimation on Pseudo-LiDAR: Bridging the Gap on Estimating
Point Motion
- Title(参考訳): 擬似LiDARによる3次元流れの推定:点運動の推定によるギャップのブリッジ化
- Authors: Chaokang Jiang, Guangming Wang, Yanzi Miao, and Hesheng Wang
- Abstract要約: 3次元シーンフローは、3次元ユークリッド空間において、現在の時刻の点が次回に流れる様子を特徴付ける。
3次元空間に2次元画素の密接な性質を導入することにより、予測されたシーンフローの安定性が向上する。
より効果的な3次元シーンフローの教師なし学習を実現するために, 差分整合損失を提案する。
- 参考スコア(独自算出の注目度): 19.419030878019974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D scene flow characterizes how the points at the current time flow to the
next time in the 3D Euclidean space, which possesses the capacity to infer
autonomously the non-rigid motion of all objects in the scene. The previous
methods for estimating scene flow from images have limitations, which split the
holistic nature of 3D scene flow by estimating optical flow and disparity
separately. Learning 3D scene flow from point clouds also faces the
difficulties of the gap between synthesized and real data and the sparsity of
LiDAR point clouds. In this paper, the generated dense depth map is utilized to
obtain explicit 3D coordinates, which achieves direct learning of 3D scene flow
from 2D images. The stability of the predicted scene flow is improved by
introducing the dense nature of 2D pixels into the 3D space. Outliers in the
generated 3D point cloud are removed by statistical methods to weaken the
impact of noisy points on the 3D scene flow estimation task. Disparity
consistency loss is proposed to achieve more effective unsupervised learning of
3D scene flow. The proposed method of self-supervised learning of 3D scene flow
on real-world images is compared with a variety of methods for learning on the
synthesized dataset and learning on LiDAR point clouds. The comparisons of
multiple scene flow metrics are shown to demonstrate the effectiveness and
superiority of introducing pseudo-LiDAR point cloud to scene flow estimation.
- Abstract(参考訳): 3次元シーンフローは、3次元ユークリッド空間における現在の時点の点が、シーン内の全ての物体の非剛体運動を自律的に推測する能力を持つ点を次に流れるかを示す。
画像からシーンフローを推定する従来の手法には限界があり、光学的流れと不一致を別々に推定することで3次元シーンフローの全体的性質を分割する。
点雲からの3Dシーンフローの学習は、合成データと実データとのギャップとLiDAR点雲の空間性にも直面する。
本稿では,2次元画像からの3次元シーンフローの直接学習を実現するために,生成された深度マップを用いて明示的な3次元座標を求める。
3次元空間に2次元画素の密集特性を導入することにより、予測されたシーンフローの安定性を向上させる。
生成した3次元点雲のアウトリージは統計的手法により除去され、3次元シーンフロー推定タスクにおけるノイズ点の影響が弱まる。
より効果的な3次元シーンフローの教師なし学習を実現するために, 差分整合損失を提案する。
実世界の画像上での3次元シーンフローの自己教師付き学習法を,合成データセット上での学習法とLiDAR点雲上での学習法を比較した。
複数のシーンフロー指標の比較により,シーンフロー推定における擬似LiDAR点雲の導入の有効性と優位性を示した。
関連論文リスト
- DELFlow: Dense Efficient Learning of Scene Flow for Large-Scale Point
Clouds [42.64433313672884]
2次元グリッドに3次元座標を格納することで,原点を高密度フォーマットに正規化する。
既存の作業でよく使われるサンプリング操作とは異なり、密度の高い2D表現はほとんどの点を保存する。
また,情報損失問題を緩和する新しいワーププロジェクション手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T16:37:24Z) - Unsupervised Learning of 3D Scene Flow from Monocular Camera [21.34395959441377]
実シーンにおけるシーンフローの基礎的真理を知ることは困難であり、近年の研究は、学習のための合成データに基づいている。
本稿では,モノクロカメラで撮影した2つの連続したフレームの画像を利用した,シーンフローの教師なし学習手法を提案する。
本手法は,実世界データを用いたシーンフローネットワークの学習を目標とし,トレーニングデータとテストデータとのギャップを埋めることを実現する。
論文 参考訳(メタデータ) (2022-06-08T04:57:27Z) - RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds [44.034836961967144]
シーンフローや点雲の登録を含む3次元運動推定が注目されている。
最近の手法では、正確な3次元フローを推定するためのコストボリュームを構築するために、ディープニューラルネットワークを使用している。
問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
論文 参考訳(メタデータ) (2022-05-23T04:04:30Z) - Learning Scene Flow in 3D Point Clouds with Noisy Pseudo Labels [71.11151016581806]
そこで本研究では,3次元の3次元動きを点雲からキャプチャするシーンフロー手法を提案する。
提案手法は,最先端の自己教師型アプローチより優れるだけでなく,正確な接地構造を用いた教師型アプローチよりも優れる。
論文 参考訳(メタデータ) (2022-03-23T18:20:03Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - FESTA: Flow Estimation via Spatial-Temporal Attention for Scene Point
Clouds [28.899804787744202]
シーンフローは、自律運転、ロボットナビゲーション、AR/VRなど、さまざまなアプリケーションにとって重要な3Dシーンのダイナミクスを描いている。
典型的な点雲サンプリングパターンのばらつきと不規則さのため、点雲からシーンフローを抽出することは依然として困難である。
不安定な抽象問題を軽減するために, 注意を伴う空間抽象(SA2)層を提案する。
a temporal abstraction with attention (ta2) layer は、時間領域における注意を正すために提案され、より広い範囲でスケールされた動きの利点をもたらす。
論文 参考訳(メタデータ) (2021-04-01T23:04:04Z) - How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines [49.06411148698547]
本稿では,3次元シーン形状に関する情報がライン雲に保存されていることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
論文 参考訳(メタデータ) (2021-03-08T21:32:43Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Self-Supervised Monocular Scene Flow Estimation [27.477810324117016]
本稿では,競争精度とリアルタイム性能を両立させる新しい単眼シーンフロー法を提案する。
逆問題の観点から、深度と3次元運動を同時に推定する単一畳み込みニューラルネットワーク(CNN)を設計する。
論文 参考訳(メタデータ) (2020-04-08T17:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。