論文の概要: OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision
- arxiv url: http://arxiv.org/abs/2401.02550v1
- Date: Thu, 4 Jan 2024 21:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 16:39:59.045128
- Title: OptFlow: Fast Optimization-based Scene Flow Estimation without
Supervision
- Title(参考訳): optflow: 監督なしでの最適化に基づくシーンフロー推定
- Authors: Rahul Ahuja, Chris Baker, Wilko Schwarting
- Abstract要約: 高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
人気の高い自動運転ベンチマークにおけるシーンフロー推定のための最先端性能を実現する。
- 参考スコア(独自算出の注目度): 6.173968909465726
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scene flow estimation is a crucial component in the development of autonomous
driving and 3D robotics, providing valuable information for environment
perception and navigation. Despite the advantages of learning-based scene flow
estimation techniques, their domain specificity and limited generalizability
across varied scenarios pose challenges. In contrast, non-learning
optimization-based methods, incorporating robust priors or regularization,
offer competitive scene flow estimation performance, require no training, and
show extensive applicability across datasets, but suffer from lengthy inference
times. In this paper, we present OptFlow, a fast optimization-based scene flow
estimation method. Without relying on learning or any labeled datasets, OptFlow
achieves state-of-the-art performance for scene flow estimation on popular
autonomous driving benchmarks. It integrates a local correlation weight matrix
for correspondence matching, an adaptive correspondence threshold limit for
nearest-neighbor search, and graph prior rigidity constraints, resulting in
expedited convergence and improved point correspondence identification.
Moreover, we demonstrate how integrating a point cloud registration function
within our objective function bolsters accuracy and differentiates between
static and dynamic points without relying on external odometry data.
Consequently, OptFlow outperforms the baseline graph-prior method by
approximately 20% and the Neural Scene Flow Prior method by 5%-7% in accuracy,
all while offering the fastest inference time among all non-learning scene flow
estimation methods.
- Abstract(参考訳): シーンフロー推定は、自律運転と3dロボットの開発において重要な要素であり、環境認識とナビゲーションに有用な情報を提供する。
学習に基づくシーンフロー推定手法の利点にもかかわらず、ドメインの特異性とさまざまなシナリオにわたる限定的な一般化が課題となる。
対照的に、ロバストな事前設定や正規化を組み込んだ非学習最適化ベースの手法は、競争力のあるシーンフロー推定性能を提供し、トレーニングを必要とせず、データセットにまたがる広範な適用性を示すが、長い推論時間に苦しむ。
本稿では,高速な最適化に基づくシーンフロー推定手法であるOpsFlowを提案する。
optflowは、学習やラベル付きデータセットに頼ることなく、人気のある自動運転ベンチマークでシーンフロー推定の最先端のパフォーマンスを実現する。
一致マッチングのための局所相関重み行列、最寄り探索のための適応対応対応しきい値限界、グラフ前の剛性制約を統合し、高速収束と点対応同定の改善をもたらす。
さらに,目的関数にポイントクラウド登録機能を統合することで,外部のオドメトリデータに頼らずに,静的点と動的点を区別できることを示す。
したがって、オプティフローは、ベースライングラフ優先法を約20%、ニューラルシーンフロー優先法を5%〜7%精度で上回り、非学習シーンフロー推定法で最速の推論時間を提供する。
関連論文リスト
- STARFlow: Spatial Temporal Feature Re-embedding with Attentive Learning
for Real-world Scene Flow [6.155589434533128]
両ユークリッド空間における全点対に一致する大域的注意流埋め込みを提案する。
我々は、新しいドメイン適応損失を利用して、合成から実世界への動き推論のギャップを埋める。
提案手法は,実世界のLiDARスキャンデータセットにおいて特に顕著な結果を得て,各種データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-11T04:56:10Z) - SSFlowNet: Semi-supervised Scene Flow Estimation On Point Clouds With
Pseudo Label [10.852258389804984]
本稿では,シーンフロー推定のための半教師付きアプローチであるSSFlowNetを紹介する。
ラベル付きデータとラベルなしデータの混合を利用し、ラベル付けコストとモデルトレーニングの精度のバランスを最適化する。
論文 参考訳(メタデータ) (2023-12-23T14:43:52Z) - DistractFlow: Improving Optical Flow Estimation via Realistic
Distractions and Pseudo-Labeling [49.46842536813477]
本稿では,光フロー推定モデルのトレーニングのための新しいデータ拡張手法であるDistractFlowを提案する。
2つのフレームのうちの1つを、類似したドメインを描写したイントラクタイメージと組み合わせることで、自然の物体やシーンと相反する視覚的摂動を誘発することができる。
私たちのアプローチでは、追加のアノテーションを必要とせずに、利用可能なトレーニングペアの数を大幅に増やすことができます。
論文 参考訳(メタデータ) (2023-03-24T15:42:54Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - SCOOP: Self-Supervised Correspondence and Optimization-Based Scene Flow [25.577386156273256]
シーンフロー推定は、連続した観察からシーンの3次元運動を見つけることを目的として、コンピュータビジョンにおける長年の課題である。
そこで本研究では,少量のデータから学習可能なシーンフロー推定手法であるSCOOPについて紹介する。
論文 参考訳(メタデータ) (2022-11-25T10:52:02Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds [13.62166506575236]
RMS-FlowNetは、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースアーキテクチャである。
我々は,本モデルが,微調整を伴わずに,KITTIデータセットの現実のシーンに向けての競争力を示すことを示した。
論文 参考訳(メタデータ) (2022-04-01T11:02:58Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Neural Scene Flow Prior [30.878829330230797]
ディープラーニング革命以前、多くの知覚アルゴリズムは実行時最適化と強力な事前/正規化ペナルティに基づいていた。
本稿では,実行時最適化と強い正規化に大きく依存するシーンフロー問題を再考する。
ここでの中心的なイノベーションは、ニューラルネットワークのアーキテクチャを新しいタイプの暗黙正則化器として使用する、前もってニューラルネットワークのシーンフローを含めることである。
論文 参考訳(メタデータ) (2021-11-01T20:44:12Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。