論文の概要: GMSF: Global Matching Scene Flow
- arxiv url: http://arxiv.org/abs/2305.17432v2
- Date: Mon, 30 Oct 2023 09:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 02:17:56.424618
- Title: GMSF: Global Matching Scene Flow
- Title(参考訳): GMSF:グローバルマッチングシーンフロー
- Authors: Yushan Zhang, Johan Edstedt, Bastian Wandt, Per-Erik Forss\'en, Maria
Magnusson, Michael Felsberg
- Abstract要約: 我々は点雲からのシーンフロー推定の課題に取り組む。
ソースとターゲットポイントクラウドが与えられた場合、目的はソースポイントクラウドの各ポイントからターゲットへの変換を推定することである。
そこで本研究では,この問題に対処するため,より単純なワンショット・ワンショット・グローバルマッチングを提案する。
- 参考スコア(独自算出の注目度): 17.077134204089536
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We tackle the task of scene flow estimation from point clouds. Given a source
and a target point cloud, the objective is to estimate a translation from each
point in the source point cloud to the target, resulting in a 3D motion vector
field. Previous dominant scene flow estimation methods require complicated
coarse-to-fine or recurrent architectures as a multi-stage refinement. In
contrast, we propose a significantly simpler single-scale one-shot global
matching to address the problem. Our key finding is that reliable feature
similarity between point pairs is essential and sufficient to estimate accurate
scene flow. We thus propose to decompose the feature extraction step via a
hybrid local-global-cross transformer architecture which is crucial to accurate
and robust feature representations. Extensive experiments show that the
proposed Global Matching Scene Flow (GMSF) sets a new state-of-the-art on
multiple scene flow estimation benchmarks. On FlyingThings3D, with the presence
of occlusion points, GMSF reduces the outlier percentage from the previous best
performance of 27.4% to 5.6%. On KITTI Scene Flow, without any fine-tuning, our
proposed method shows state-of-the-art performance. On the Waymo-Open dataset,
the proposed method outperforms previous methods by a large margin. The code is
available at https://github.com/ZhangYushan3/GMSF.
- Abstract(参考訳): 我々は点雲からのシーンフロー推定の課題に取り組む。
ソースとターゲットポイントクラウドが与えられた場合、目標はソースポイントクラウドの各ポイントからターゲットへの変換を見積もることであり、結果として3dモーションベクトルフィールドが生成される。
従来主流であったシーンフロー推定手法では,多段階的な細粒化や再帰的なアーキテクチャが必要であった。
対照的に,この問題に対処するために,単発グローバルマッチングの簡易化を提案する。
私たちの重要な発見は、ポイントペア間の信頼性の高い機能類似性が不可欠であり、正確なシーンフローを推定するのに十分であることです。
そこで本研究では, 高精度かつロバストな特徴表現に不可欠な, ハイブリッドな局所-グローバル-クロストランスフォーマーアーキテクチャを用いて特徴抽出ステップを分解する。
大規模な実験により,提案したGlobal Matching Scene Flow (GMSF) が,複数のシーンフロー推定ベンチマークに新たな最先端を設定できることが示されている。
FlyingThings3Dでは、オクルージョンポイントが存在するため、GMSFは前回の最高パフォーマンスの27.4%から5.6%に減らす。
KITTI Scene Flowでは微調整が不要であり,提案手法は最先端の性能を示す。
Waymo-Openデータセットでは、提案手法は従来の手法よりも大きなマージンで優れている。
コードはhttps://github.com/zhangyushan3/gmsfで入手できる。
関連論文リスト
- RMS-FlowNet++: Efficient and Robust Multi-Scale Scene Flow Estimation for Large-Scale Point Clouds [15.138542932078916]
RMS-FlowNet++は、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースの新しいアーキテクチャである。
我々のアーキテクチャは最先端の手法よりも高速な予測を提供し、高いメモリ要求を回避し、同時に250K以上の高密度点雲上の効率的なシーンフローを可能にする。
論文 参考訳(メタデータ) (2024-07-01T09:51:17Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Grad-PU: Arbitrary-Scale Point Cloud Upsampling via Gradient Descent
with Learned Distance Functions [77.32043242988738]
我々は、任意のアップサンプリングレートをサポートする、正確なポイントクラウドアップサンプリングのための新しいフレームワークを提案する。
提案手法は,まず,所定のアップサンプリング率に応じて低解像度の雲を補間する。
論文 参考訳(メタデータ) (2023-04-24T06:36:35Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds [13.62166506575236]
RMS-FlowNetは、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースアーキテクチャである。
我々は,本モデルが,微調整を伴わずに,KITTIデータセットの現実のシーンに向けての競争力を示すことを示した。
論文 参考訳(メタデータ) (2022-04-01T11:02:58Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。