論文の概要: RMS-FlowNet++: Efficient and Robust Multi-Scale Scene Flow Estimation for Large-Scale Point Clouds
- arxiv url: http://arxiv.org/abs/2407.01129v1
- Date: Mon, 1 Jul 2024 09:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 22:09:47.013130
- Title: RMS-FlowNet++: Efficient and Robust Multi-Scale Scene Flow Estimation for Large-Scale Point Clouds
- Title(参考訳): RMS-FlowNet++:大規模クラウドのための効率的かつロバストなマルチスケールシーンフロー推定
- Authors: Ramy Battrawy, René Schuster, Didier Stricker,
- Abstract要約: RMS-FlowNet++は、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースの新しいアーキテクチャである。
我々のアーキテクチャは最先端の手法よりも高速な予測を提供し、高いメモリ要求を回避し、同時に250K以上の高密度点雲上の効率的なシーンフローを可能にする。
- 参考スコア(独自算出の注目度): 15.138542932078916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proposed RMS-FlowNet++ is a novel end-to-end learning-based architecture for accurate and efficient scene flow estimation that can operate on high-density point clouds. For hierarchical scene f low estimation, existing methods rely on expensive Farthest-Point-Sampling (FPS) to sample the scenes, must find large correspondence sets across the consecutive frames and/or must search for correspondences at a full input resolution. While this can improve the accuracy, it reduces the overall efficiency of these methods and limits their ability to handle large numbers of points due to memory requirements. In contrast to these methods, our architecture is based on an efficient design for hierarchical prediction of multi-scale scene flow. To this end, we develop a special flow embedding block that has two advantages over the current methods: First, a smaller correspondence set is used, and second, the use of Random-Sampling (RS) is possible. In addition, our architecture does not need to search for correspondences at a full input resolution. Exhibiting high accuracy, our RMS-FlowNet++ provides a faster prediction than state-of-the-art methods, avoids high memory requirements and enables efficient scene flow on dense point clouds of more than 250K points at once. Our comprehensive experiments verify the accuracy of RMS FlowNet++ on the established FlyingThings3D data set with different point cloud densities and validate our design choices. Furthermore, we demonstrate that our model has a competitive ability to generalize to the real-world scenes of the KITTI data set without fine-tuning.
- Abstract(参考訳): 提案したRMS-FlowNet++は,高密度のクラウド上で動作可能な,正確かつ効率的なシーンフロー推定のための,エンドツーエンドの学習ベースアーキテクチャである。
階層的なシーンfの低い推定では、既存の手法は高価なFPS(Farthest-Point-Sampling)を使ってシーンをサンプリングし、連続するフレームにまたがる大きな対応セットを見つけなければならない。
これにより精度が向上するが、これらの手法の全体的な効率が低下し、メモリ要求により大量のポイントを扱う能力が制限される。
これらの手法とは対照的に,本アーキテクチャはマルチスケールシーンフローの階層的予測のための効率的な設計に基づいている。
この目的のために,従来の手法よりも2つの利点を持つ特別な流れ埋め込みブロックを開発した。
さらに、我々のアーキテクチャは完全な入力解像度で対応を検索する必要がない。
我々のRMS-FlowNet++は、最先端の手法よりも高速な予測を提供し、高いメモリ要求を回避し、同時に250K以上の高密度のクラウド上での効率的なシーンフローを可能にします。
我々の総合的な実験は、異なる点のクラウド密度を持つ確立されたFlyingThings3Dデータセット上でRMS FlowNet++の精度を検証し、設計選択を検証します。
さらに,本モデルでは,KITTIデータセットの現実のシーンを微調整せずに一般化できる競争力があることを実証した。
関連論文リスト
- RecFlow: An Industrial Full Flow Recommendation Dataset [66.06445386541122]
産業レコメンデーションシステムは、商品をユーザに届ける際の効率性と効率のバランスをとるために、多段階パイプラインに依存している。
オフラインRSベンチマークと実際のオンライン環境とのギャップを埋めるために設計された産業用フルフローレコメンデーションデータセットであるRecFlowを紹介します。
我々のデータセットは、約9万項目にわたる42Kユーザからの38万のインタラクションで構成され、37日間にわたる9.3Mオンラインリクエストから収集された1.9Bステージサンプルと6ステージにまたがる。
論文 参考訳(メタデータ) (2024-10-28T09:36:03Z) - OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision [6.173968909465726]
高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
人気の高い自動運転ベンチマークにおけるシーンフロー推定のための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-04T21:47:56Z) - GMSF: Global Matching Scene Flow [17.077134204089536]
我々は点雲からのシーンフロー推定の課題に取り組む。
ソースとターゲットポイントクラウドが与えられた場合、目的はソースポイントクラウドの各ポイントからターゲットへの変換を推定することである。
そこで本研究では,この問題に対処するため,より単純なワンショット・ワンショット・グローバルマッチングを提案する。
論文 参考訳(メタデータ) (2023-05-27T10:04:21Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - Bi-PointFlowNet: Bidirectional Learning for Point Cloud Based Scene Flow
Estimation [3.1869033681682124]
本稿では,双方向フロー埋め込み層を用いた新しいシーンフロー推定アーキテクチャを提案する。
提案する双方向層は,前方方向と後方方向の両方で特徴を学習し,推定性能を向上させる。
さらに、階層的特徴抽出とワープにより性能が向上し、計算オーバーヘッドが減少する。
論文 参考訳(メタデータ) (2022-07-15T15:14:53Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds [13.62166506575236]
RMS-FlowNetは、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースアーキテクチャである。
我々は,本モデルが,微調整を伴わずに,KITTIデータセットの現実のシーンに向けての競争力を示すことを示した。
論文 参考訳(メタデータ) (2022-04-01T11:02:58Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。