論文の概要: DeltaFlow: An Efficient Multi-frame Scene Flow Estimation Method
- arxiv url: http://arxiv.org/abs/2508.17054v1
- Date: Sat, 23 Aug 2025 15:06:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.317128
- Title: DeltaFlow: An Efficient Multi-frame Scene Flow Estimation Method
- Title(参考訳): DeltaFlow: 効率的なマルチフレームシーンフロー推定方法
- Authors: Qingwen Zhang, Xiaomeng Zhu, Yushan Zhang, Yixi Cai, Olov Andersson, Patric Jensfelt,
- Abstract要約: 我々はDeltaFlow(Delta$Flow)という軽量な3Dフレームワークを提案し、Delta$スキームを通じて動きのキューをキャプチャし、時間的特徴を最小の計算コストで抽出する。
$Delta$Flowは22%のエラーと2倍の高速推論で最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 10.777409790795351
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Previous dominant methods for scene flow estimation focus mainly on input from two consecutive frames, neglecting valuable information in the temporal domain. While recent trends shift towards multi-frame reasoning, they suffer from rapidly escalating computational costs as the number of frames grows. To leverage temporal information more efficiently, we propose DeltaFlow ($\Delta$Flow), a lightweight 3D framework that captures motion cues via a $\Delta$ scheme, extracting temporal features with minimal computational cost, regardless of the number of frames. Additionally, scene flow estimation faces challenges such as imbalanced object class distributions and motion inconsistency. To tackle these issues, we introduce a Category-Balanced Loss to enhance learning across underrepresented classes and an Instance Consistency Loss to enforce coherent object motion, improving flow accuracy. Extensive evaluations on the Argoverse 2 and Waymo datasets show that $\Delta$Flow achieves state-of-the-art performance with up to 22% lower error and $2\times$ faster inference compared to the next-best multi-frame supervised method, while also demonstrating a strong cross-domain generalization ability. The code is open-sourced at https://github.com/Kin-Zhang/DeltaFlow along with trained model weights.
- Abstract(参考訳): シーンフロー推定における従来の支配的手法は、主に2つの連続するフレームからの入力に注目し、時間領域における貴重な情報を無視する。
近年の傾向は多フレーム推論に移行しているが、フレーム数が増加するにつれて計算コストが急速に増大している。
時間的情報をより効率的に活用するために,デルタFlow(\Delta$Flow)という軽量な3Dフレームワークを提案し,フレーム数に関係なく時間的特徴を最小限の計算コストで抽出する。
さらに、シーンフロー推定は、不均衡なオブジェクトクラス分布や動きの不整合といった課題に直面します。
これらの課題に対処するために、未表現クラス間の学習を強化するカテゴリベースロスと、一貫性のあるオブジェクトの動きを強制するインスタンス一貫性ロスを導入し、フロー精度を向上する。
Argoverse 2とWaymoデータセットの大規模な評価によると、$\Delta$Flowは最先端のパフォーマンスを実現し、エラーは最大で22%低減し、2$\times$高速推論を実現している。
コードはhttps://github.com/Kin-Zhang/DeltaFlowで公開されている。
関連論文リスト
- SuperFlow++: Enhanced Spatiotemporal Consistency for Cross-Modal Data Pretraining [62.433137130087445]
SuperFlow++は、連続するカメラペアを使用して事前トレーニングと下流タスクを統合する新しいフレームワークである。
SuperFlow++は様々なタスクや運転条件で最先端のメソッドよりも優れています。
強力な一般化性と計算効率により、SuperFlow++は、自動運転におけるデータ効率の高いLiDARベースの認識のための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2025-03-25T17:59:57Z) - Floxels: Fast Unsupervised Voxel Based Scene Flow Estimation [1.429392440481971]
1) 最適化手法と2) 最適化手法の2つのアプローチが進化した。
Floxelsは、計算コストのごく一部で同等のパフォーマンスを達成しながら、教師なしの手法の中でEulerFlowにしか勝っていない。
FloxelsはEulerFlow上で60~140倍の大幅なスピードアップを実現し、1シーケンスあたりのランタイムを1日から10分に短縮する。
論文 参考訳(メタデータ) (2025-03-06T18:58:45Z) - Neural Eulerian Scene Flow Fields [59.57980592109722]
EulerFlowは、複数のドメインをチューニングすることなく、最初から動作します。
長期間の地平線上での推定ODEを解くことで、創発的な3次元点追跡挙動を示す。
2024年のArgoverse 2 Scene Flow Challengeでは、すべての先行技術より優れています。
論文 参考訳(メタデータ) (2024-10-02T20:56:45Z) - MemFlow: Optical Flow Estimation and Prediction with Memory [54.22820729477756]
本稿では,メモリを用いた光フロー推定と予測をリアルタイムに行うMemFlowを提案する。
本手法では,メモリの読み出しと更新を行うモジュールをリアルタイムに収集する。
われわれのアプローチは、過去の観測に基づいて、将来の光流の予測にシームレスに拡張する。
論文 参考訳(メタデータ) (2024-04-07T04:56:58Z) - DeFlow: Decoder of Scene Flow Network in Autonomous Driving [19.486167661795797]
シーンフロー推定は、シーン内のポイントの運動を予測することによって、シーンの3次元運動場を決定する。
入力として大規模な点雲を持つ多くのネットワークは、リアルタイム実行のための擬似イメージを作成するためにボキセル化を使用する。
本稿では, Gated Recurrent Unit (GRU) の改良により, ボクセルをベースとした特徴から点への遷移を可能にするDeFlowを紹介した。
論文 参考訳(メタデータ) (2024-01-29T12:47:55Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - ZeroFlow: Scalable Scene Flow via Distillation [66.70820145266029]
シーンフロー推定は、時間的に連続する点雲間の3次元運動場を記述するタスクである。
State-of-the-artメソッドは、強い事前とテスト時の最適化技術を使用するが、フルサイズの点雲を処理するには数秒の順序を必要とする。
本研究では,ラベルなし最適化手法を用いて擬似ラベルを生成し,フィードフォワードモデルを監督する簡易でスケーラブルな蒸留フレームワークであるScene Flow via Distillationを提案する。
論文 参考訳(メタデータ) (2023-05-17T17:56:59Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。