論文の概要: Residual 3D Scene Flow Learning with Context-Aware Feature Extraction
- arxiv url: http://arxiv.org/abs/2109.04685v1
- Date: Fri, 10 Sep 2021 06:15:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:29:10.294380
- Title: Residual 3D Scene Flow Learning with Context-Aware Feature Extraction
- Title(参考訳): 文脈認識特徴抽出による残留3次元シーンフロー学習
- Authors: Guangming Wang, Yunzhe Hu, Xinrui Wu, Hesheng Wang
- Abstract要約: ユークリッド空間の文脈構造情報を活用するために,新しいコンテキスト対応集合 conv 層を提案する。
また, 遠距離移動に対処するため, 残留流微細化層に明示的な残留流学習構造を提案する。
提案手法は, これまでのすべての成果を, 少なくとも25%以上の知識に上回りながら, 最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 11.394559627312743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene flow estimation is the task to predict the point-wise 3D displacement
vector between two consecutive frames of point clouds, which has important
application in fields such as service robots and autonomous driving. Although
many previous works have explored greatly on scene flow estimation based on
point clouds, we point out two problems that have not been noticed or well
solved before: 1) Points of adjacent frames in repetitive patterns may be
wrongly associated due to similar spatial structure in their neighbourhoods; 2)
Scene flow between adjacent frames of point clouds with long-distance movement
may be inaccurately estimated. To solve the first problem, we propose a novel
context-aware set conv layer to exploit contextual structure information of
Euclidean space and learn soft aggregation weights for local point features.
Our design is inspired by human perception of contextual structure information
during scene understanding. We incorporate the context-aware set conv layer in
a context-aware point feature pyramid module of 3D point clouds for scene flow
estimation. For the second problem, we propose an explicit residual flow
learning structure in the residual flow refinement layer to cope with
long-distance movement. The experiments and ablation study on FlyingThings3D
and KITTI scene flow datasets demonstrate the effectiveness of each proposed
component and that we solve problem of ambiguous inter-frame association and
long-distance movement estimation. Quantitative results on both FlyingThings3D
and KITTI scene flow datasets show that our method achieves state-of-the-art
performance, surpassing all other previous works to the best of our knowledge
by at least 25%.
- Abstract(参考訳): シーンフロー推定は,2つの連続する点雲のフレーム間の3次元変位ベクトルを予測するタスクであり,サービスロボットや自律運転などの分野において重要な応用である。
過去の多くの研究は、点雲に基づくシーンフローの推定に大きく取り組んできたが、これまで気付かれなかった2つの問題を指摘した。
1) 繰り返しパターンにおける隣接するフレームのポイントは,その近傍の類似した空間構造によって誤って関連付けられる可能性がある。
2) 遠距離移動を伴う点雲の隣接フレーム間の流れを不正確な推定を行うことができる。
最初の問題を解決するために,ユークリッド空間の文脈構造情報を利用して,局所点特徴に対するソフトアグリゲーション重みを学習する,コンテキスト対応のコンテキスト集合 conv 層を提案する。
我々のデザインは、シーン理解時の文脈構造情報の人間の知覚にインスパイアされている。
シーンフロー推定のための3次元点雲のコンテキスト認識点特徴ピラミッドモジュールにコンテキスト認識集合 Conv 層を組み込む。
第2の課題として, 遠方移動に対処するために, 残留流微細化層における明示的な残留流学習構造を提案する。
flyingthings3dとkitti scene flowデータセットの実験とアブレーションにより,提案する各コンポーネントの有効性が示され,フレーム間のあいまいな関連と長距離移動推定の課題が解決された。
FlyingThings3DとKITTIの両方のシーンフローデータセットの定量的結果は、我々の手法が最先端の性能を達成し、これまでのすべての成果を少なくとも25%上回っていることを示している。
関連論文リスト
- Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - Self-Point-Flow: Self-Supervised Scene Flow Estimation from Point Clouds
with Optimal Transport and Random Walk [59.87525177207915]
シーンフローを近似する2点雲間の対応性を確立するための自己教師型手法を開発した。
本手法は,自己教師付き学習手法の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T03:12:42Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Weakly Supervised Learning of Rigid 3D Scene Flow [81.37165332656612]
本研究では,剛体体として動くエージェント群によって説明できる3次元シーンを多用したデータ駆動シーンフロー推定アルゴリズムを提案する。
4種類の自律運転データセットにおいて,提案手法の有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-17T18:58:02Z) - PV-RAFT: Point-Voxel Correlation Fields for Scene Flow Estimation of
Point Clouds [89.76093400242088]
本稿では,点雲からのシーンフローを推定するPV-RAFT(Point-Voxel Recurrent All-Pairs Field Transforms)法を提案する。
提案手法をFlyingThings3DとKITTI Scene Flow 2015データセットで評価した。
論文 参考訳(メタデータ) (2020-12-02T06:20:54Z) - Occlusion Guided Scene Flow Estimation on 3D Point Clouds [4.518012967046983]
3次元シーンフロー推定は、環境に与えられた深度や範囲のセンサーを知覚する上で欠かせないツールである。
本稿では,フレーム間のフローとオクルージョンの両方の学習を密に結合する,OGSF-Netと呼ばれる新しいシーンフローアーキテクチャを提案する。
これらの共生が組み合わさって宇宙の流れをより正確に予測できる。
論文 参考訳(メタデータ) (2020-11-30T15:22:03Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z) - Hierarchical Attention Learning of Scene Flow in 3D Point Clouds [28.59260783047209]
本稿では,2つの連続する3次元点雲からのシーンフロー推定の問題について検討する。
隣接フレームにおける点特徴の相関を学習するために, 二重注意を有する新しい階層型ニューラルネットワークを提案する。
実験の結果,提案したネットワークは3次元シーンフロー推定の最先端性能より優れていた。
論文 参考訳(メタデータ) (2020-10-12T14:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。