論文の概要: RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds
- arxiv url: http://arxiv.org/abs/2204.00354v1
- Date: Fri, 1 Apr 2022 11:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 14:40:58.523567
- Title: RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds
- Title(参考訳): RMS-FlowNet:大規模点雲の効率的かつロバストなマルチスケールシーンフロー推定
- Authors: Ramy Battrawy, Ren\'e Schuster, Mohammad-Ali Nikouei Mahani and Didier
Stricker
- Abstract要約: RMS-FlowNetは、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースアーキテクチャである。
我々は,本モデルが,微調整を伴わずに,KITTIデータセットの現実のシーンに向けての競争力を示すことを示した。
- 参考スコア(独自算出の注目度): 13.62166506575236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proposed RMS-FlowNet is a novel end-to-end learning-based architecture
for accurate and efficient scene flow estimation which can operate on point
clouds of high density. For hierarchical scene flow estimation, the existing
methods depend on either expensive Farthest-Point-Sampling (FPS) or
structure-based scaling which decrease their ability to handle a large number
of points. Unlike these methods, we base our fully supervised architecture on
Random-Sampling (RS) for multiscale scene flow prediction. To this end, we
propose a novel flow embedding design which can predict more robust scene flow
in conjunction with RS. Exhibiting high accuracy, our RMS-FlowNet provides a
faster prediction than state-of-the-art methods and works efficiently on
consecutive dense point clouds of more than 250K points at once. Our
comprehensive experiments verify the accuracy of RMS-FlowNet on the established
FlyingThings3D data set with different point cloud densities and validate our
design choices. Additionally, we show that our model presents a competitive
ability to generalize towards the real-world scenes of KITTI data set without
fine-tuning.
- Abstract(参考訳): 提案するRMS-FlowNetは,高精度かつ効率的なシーンフロー推定のための,エンドツーエンドの学習ベースアーキテクチャである。
階層的なシーンフロー推定では、既存の手法は高価なFarthest-Point-Sampling (FPS) か、多数のポイントを扱う能力を減らす構造ベースのスケーリングに依存する。
これらの手法とは異なり、我々はRandom-Sampling (RS) に基づいて、マルチスケールのシーンフロー予測を行う。
そこで本研究では,より堅牢なシーンフローをRSとともに予測できる新しいフロー埋め込み設計を提案する。
高い精度を示すrms-flownetは最先端の手法よりも高速な予測を提供し、250万点以上の連続した密集点雲上で効率的に動作する。
本研究は,異なる点雲密度を持つ確立されたflyingthings3dデータセット上でのrms-flownetの精度を検証し,設計上の選択を検証した。
さらに,本モデルでは,微調整を行なわずに,KITTIデータセットの現実のシーンを一般化する能力を示す。
関連論文リスト
- RecFlow: An Industrial Full Flow Recommendation Dataset [66.06445386541122]
産業レコメンデーションシステムは、商品をユーザに届ける際の効率性と効率のバランスをとるために、多段階パイプラインに依存している。
オフラインRSベンチマークと実際のオンライン環境とのギャップを埋めるために設計された産業用フルフローレコメンデーションデータセットであるRecFlowを紹介します。
我々のデータセットは、約9万項目にわたる42Kユーザからの38万のインタラクションで構成され、37日間にわたる9.3Mオンラインリクエストから収集された1.9Bステージサンプルと6ステージにまたがる。
論文 参考訳(メタデータ) (2024-10-28T09:36:03Z) - RMS-FlowNet++: Efficient and Robust Multi-Scale Scene Flow Estimation for Large-Scale Point Clouds [15.138542932078916]
RMS-FlowNet++は、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースの新しいアーキテクチャである。
我々のアーキテクチャは最先端の手法よりも高速な予測を提供し、高いメモリ要求を回避し、同時に250K以上の高密度点雲上の効率的なシーンフローを可能にする。
論文 参考訳(メタデータ) (2024-07-01T09:51:17Z) - OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision [6.173968909465726]
高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
人気の高い自動運転ベンチマークにおけるシーンフロー推定のための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-04T21:47:56Z) - GMSF: Global Matching Scene Flow [17.077134204089536]
我々は点雲からのシーンフロー推定の課題に取り組む。
ソースとターゲットポイントクラウドが与えられた場合、目的はソースポイントクラウドの各ポイントからターゲットへの変換を推定することである。
そこで本研究では,この問題に対処するため,より単純なワンショット・ワンショット・グローバルマッチングを提案する。
論文 参考訳(メタデータ) (2023-05-27T10:04:21Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - What Matters for 3D Scene Flow Network [44.02710380584977]
点雲からの3次元シーンフロー推定はコンピュータビジョンにおける低レベルな3次元モーション知覚タスクである。
そこで本研究では,初期シーンフロー推定時の逆方向の信頼性検証が可能な,新しい全対全フロー埋め込み層を提案する。
提案したモデルは,FlyingThings3Dデータセットで少なくとも38.2%,KITTI Scene Flowデータセットで24.7%,EPE3Dメトリックで,既存のすべてのメソッドを上回ります。
論文 参考訳(メタデータ) (2022-07-19T09:27:05Z) - Bi-PointFlowNet: Bidirectional Learning for Point Cloud Based Scene Flow
Estimation [3.1869033681682124]
本稿では,双方向フロー埋め込み層を用いた新しいシーンフロー推定アーキテクチャを提案する。
提案する双方向層は,前方方向と後方方向の両方で特徴を学習し,推定性能を向上させる。
さらに、階層的特徴抽出とワープにより性能が向上し、計算オーバーヘッドが減少する。
論文 参考訳(メタデータ) (2022-07-15T15:14:53Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - FLOT: Scene Flow on Point Clouds Guided by Optimal Transport [82.86743909483312]
本稿では,点雲上のシーンフローを推定するFLOT法を提案する。
グラフマッチングに関する最近の研究に触発されて、最適な輸送手段からツールを借りてこれらの対応を見つける方法を構築した。
私たちの主な発見は、FLOTは、合成および実世界のデータセット上で、最も優れた既存の方法と同様に、実行可能であることです。
論文 参考訳(メタデータ) (2020-07-22T00:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。