論文の概要: What Matters for 3D Scene Flow Network
- arxiv url: http://arxiv.org/abs/2207.09143v1
- Date: Tue, 19 Jul 2022 09:27:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:55:19.256776
- Title: What Matters for 3D Scene Flow Network
- Title(参考訳): 3次元シーンフローネットワークの課題
- Authors: Guangming Wang, Yunzhe Hu, Zhe Liu, Yiyang Zhou, Masayoshi Tomizuka,
Wei Zhan, and Hesheng Wang
- Abstract要約: 点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
- 参考スコア(独自算出の注目度): 44.02710380584977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene flow estimation from point clouds is a low-level 3D motion
perception task in computer vision. Flow embedding is a commonly used technique
in scene flow estimation, and it encodes the point motion between two
consecutive frames. Thus, it is critical for the flow embeddings to capture the
correct overall direction of the motion. However, previous works only search
locally to determine a soft correspondence, ignoring the distant points that
turn out to be the actual matching ones. In addition, the estimated
correspondence is usually from the forward direction of the adjacent point
clouds, and may not be consistent with the estimated correspondence acquired
from the backward direction. To tackle these problems, we propose a novel
all-to-all flow embedding layer with backward reliability validation during the
initial scene flow estimation. Besides, we investigate and compare several
design choices in key components of the 3D scene flow network, including the
point similarity calculation, input elements of predictor, and predictor &
refinement level design. After carefully choosing the most effective designs,
we are able to present a model that achieves the state-of-the-art performance
on FlyingThings3D and KITTI Scene Flow datasets. Our proposed model surpasses
all existing methods by at least 38.2% on FlyingThings3D dataset and 24.7% on
KITTI Scene Flow dataset for EPE3D metric. We release our codes at
https://github.com/IRMVLab/3DFlow.
- Abstract(参考訳): 点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
フロー埋め込みはシーンフロー推定において一般的に用いられる手法であり、2つの連続するフレーム間の点運動を符号化する。
したがって、流れの埋め込みは運動の全体方向を正確に捉えることが重要である。
しかし、以前の研究はソフト対応を決定するために局所的にのみ探索し、実際の一致点となる遠点を無視した。
さらに、推定された対応は、通常、隣接する点雲の前方方向からのものであり、後方方向から得られた推定対応とは一致しない。
これらの問題に対処するために,初期シーンフロー推定時に後方方向の信頼性を検証できる新しい全対全フロー埋め込み層を提案する。
さらに,点類似度計算,予測器の入力要素,予測器と改良器のレベル設計など,3次元シーンフローネットワークの主要コンポーネントにおける設計選択について検討・比較する。
最も効果的なデザインを慎重に選択した後、FlyingThings3DとKITTI Scene Flowデータセットで最先端のパフォーマンスを実現するモデルを提示します。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
コードはhttps://github.com/irmvlab/3dflowでリリースします。
関連論文リスト
- V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - RCP: Recurrent Closest Point for Scene Flow Estimation on 3D Point
Clouds [44.034836961967144]
シーンフローや点雲の登録を含む3次元運動推定が注目されている。
最近の手法では、正確な3次元フローを推定するためのコストボリュームを構築するために、ディープニューラルネットワークを使用している。
問題を2つのインターレースステージに分解し、第1段階では3次元フローをポイントワイズに最適化し、第2段階ではリカレントネットワークでグローバルに正規化する。
論文 参考訳(メタデータ) (2022-05-23T04:04:30Z) - Residual 3D Scene Flow Learning with Context-Aware Feature Extraction [11.394559627312743]
ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-09-10T06:15:18Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - Occlusion Guided Scene Flow Estimation on 3D Point Clouds [4.518012967046983]
3次元シーンフロー推定は、環境に与えられた深度や範囲のセンサーを知覚する上で欠かせないツールである。
本稿では,フレーム間のフローとオクルージョンの両方の学習を密に結合する,OGSF-Netと呼ばれる新しいシーンフローアーキテクチャを提案する。
これらの共生が組み合わさって宇宙の流れをより正確に予測できる。
論文 参考訳(メタデータ) (2020-11-30T15:22:03Z) - Hierarchical Attention Learning of Scene Flow in 3D Point Clouds [28.59260783047209]
本稿では,2つの連続する3次元点雲からのシーンフロー推定の問題について検討する。
隣接フレームにおける点特徴の相関を学習するために, 二重注意を有する新しい階層型ニューラルネットワークを提案する。
実験の結果,提案したネットワークは3次元シーンフロー推定の最先端性能より優れていた。
論文 参考訳(メタデータ) (2020-10-12T14:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。