論文の概要: OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision
- arxiv url: http://arxiv.org/abs/2401.02550v1
- Date: Thu, 4 Jan 2024 21:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 16:39:59.045128
- Title: OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision
- Title(参考訳): optflow: 監督なしでの最適化に基づくシーンフロー推定
- Authors: Rahul Ahuja, Chris Baker, Wilko Schwarting
- Abstract要約: 高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
人気の高い自動運転ベンチマークにおけるシーンフロー推定のための最先端性能を実現する。
- 参考スコア(独自算出の注目度): 6.173968909465726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scene flow estimation is a crucial component in the development of autonomous
driving and 3D robotics, providing valuable information for environment
perception and navigation. Despite the advantages of learning-based scene flow
estimation techniques, their domain specificity and limited generalizability
across varied scenarios pose challenges. In contrast, non-learning
optimization-based methods, incorporating robust priors or regularization,
offer competitive scene flow estimation performance, require no training, and
show extensive applicability across datasets, but suffer from lengthy inference
times. In this paper, we present OptFlow, a fast optimization-based scene flow
estimation method. Without relying on learning or any labeled datasets, OptFlow
achieves state-of-the-art performance for scene flow estimation on popular
autonomous driving benchmarks. It integrates a local correlation weight matrix
for correspondence matching, an adaptive correspondence threshold limit for
nearest-neighbor search, and graph prior rigidity constraints, resulting in
expedited convergence and improved point correspondence identification.
Moreover, we demonstrate how integrating a point cloud registration function
within our objective function bolsters accuracy and differentiates between
static and dynamic points without relying on external odometry data.
Consequently, OptFlow outperforms the baseline graph-prior method by
approximately 20% and the Neural Scene Flow Prior method by 5%-7% in accuracy,
all while offering the fastest inference time among all non-learning scene flow
estimation methods.
- Abstract(参考訳): シーンフロー推定は、自律運転と3dロボットの開発において重要な要素であり、環境認識とナビゲーションに有用な情報を提供する。
学習に基づくシーンフロー推定手法の利点にもかかわらず、ドメインの特異性とさまざまなシナリオにわたる限定的な一般化が課題となる。
対照的に、ロバストな事前設定や正規化を組み込んだ非学習最適化ベースの手法は、競争力のあるシーンフロー推定性能を提供し、トレーニングを必要とせず、データセットにまたがる広範な適用性を示すが、長い推論時間に苦しむ。
本稿では,高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
optflowは、学習やラベル付きデータセットに頼ることなく、人気のある自動運転ベンチマークでシーンフロー推定の最先端のパフォーマンスを実現する。
一致マッチングのための局所相関重み行列、最寄り探索のための適応対応対応しきい値限界、グラフ前の剛性制約を統合し、高速収束と点対応同定の改善をもたらす。
さらに,目的関数にポイントクラウド登録機能を統合することで,外部のオドメトリデータに頼らずに,静的点と動的点を区別できることを示す。
したがって、オプティフローは、ベースライングラフ優先法を約20%、ニューラルシーンフロー優先法を5%〜7%精度で上回り、非学習シーンフロー推定法で最速の推論時間を提供する。
関連論文リスト
- Neural Eulerian Scene Flow Fields [59.57980592109722]
EulerFlowは、複数のドメインをチューニングすることなく、最初から動作します。
長期間の地平線上での推定ODEを解くことで、創発的な3次元点追跡挙動を示す。
2024年のArgoverse 2 Scene Flow Challengeでは、すべての先行技術より優れています。
論文 参考訳(メタデータ) (2024-10-02T20:56:45Z) - RMS-FlowNet++: Efficient and Robust Multi-Scale Scene Flow Estimation for Large-Scale Point Clouds [15.138542932078916]
RMS-FlowNet++は、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースの新しいアーキテクチャである。
我々のアーキテクチャは最先端の手法よりも高速な予測を提供し、高いメモリ要求を回避し、同時に250K以上の高密度点雲上の効率的なシーンフローを可能にする。
論文 参考訳(メタデータ) (2024-07-01T09:51:17Z) - MemFlow: Optical Flow Estimation and Prediction with Memory [54.22820729477756]
本稿では,メモリを用いた光フロー推定と予測をリアルタイムに行うMemFlowを提案する。
本手法では,メモリの読み出しと更新を行うモジュールをリアルタイムに収集する。
われわれのアプローチは、過去の観測に基づいて、将来の光流の予測にシームレスに拡張する。
論文 参考訳(メタデータ) (2024-04-07T04:56:58Z) - SSFlowNet: Semi-supervised Scene Flow Estimation On Point Clouds With Pseudo Label [10.115392939867244]
本稿では,シーンフロー推定のための半教師付きアプローチであるSSFlowNetを紹介する。
ラベル付きデータとラベルなしデータの混合を利用し、ラベル付けコストとモデルトレーニングの精度のバランスを最適化する。
論文 参考訳(メタデータ) (2023-12-23T14:43:52Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds [13.62166506575236]
RMS-FlowNetは、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースアーキテクチャである。
我々は,本モデルが,微調整を伴わずに,KITTIデータセットの現実のシーンに向けての競争力を示すことを示した。
論文 参考訳(メタデータ) (2022-04-01T11:02:58Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Neural Scene Flow Prior [30.878829330230797]
ディープラーニング革命以前、多くの知覚アルゴリズムは実行時最適化と強力な事前/正規化ペナルティに基づいていた。
本稿では,実行時最適化と強い正規化に大きく依存するシーンフロー問題を再考する。
ここでの中心的なイノベーションは、ニューラルネットワークのアーキテクチャを新しいタイプの暗黙正則化器として使用する、前もってニューラルネットワークのシーンフローを含めることである。
論文 参考訳(メタデータ) (2021-11-01T20:44:12Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。