論文の概要: TeFlow: Enabling Multi-frame Supervision for Self-Supervised Feed-forward Scene Flow Estimation
- arxiv url: http://arxiv.org/abs/2602.19053v1
- Date: Sun, 22 Feb 2026 05:50:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.460136
- Title: TeFlow: Enabling Multi-frame Supervision for Self-Supervised Feed-forward Scene Flow Estimation
- Title(参考訳): TeFlow: セルフスーパービジョンフィードフォワードシーンフロー推定のためのマルチフレームスーパービジョンの実現
- Authors: Qingwen Zhang, Chenhan Jiang, Xiaomeng Zhu, Yunqi Miao, Yushan Zhang, Olov Andersson, Patric Jensfelt,
- Abstract要約: マルチフレーム監視は、過去のフレームからのモーションキューを組み込むことにより、より安定したガイダンスを提供する可能性がある。
本稿では、時間的に一貫した監視をマイニングすることで、フィードフォワードモデルのマルチフレーム監視を可能にするTeFlowを提案する。
本手法は最適化手法と同等に動作するが,150倍の高速化が可能である。
- 参考スコア(独自算出の注目度): 14.239684633948746
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised feed-forward methods for scene flow estimation offer real-time efficiency, but their supervision from two-frame point correspondences is unreliable and often breaks down under occlusions. Multi-frame supervision has the potential to provide more stable guidance by incorporating motion cues from past frames, yet naive extensions of two-frame objectives are ineffective because point correspondences vary abruptly across frames, producing inconsistent signals. In the paper, we present TeFlow, enabling multi-frame supervision for feed-forward models by mining temporally consistent supervision. TeFlow introduces a temporal ensembling strategy that forms reliable supervisory signals by aggregating the most temporally consistent motion cues from a candidate pool built across multiple frames. Extensive evaluations demonstrate that TeFlow establishes a new state-of-the-art for self-supervised feed-forward methods, achieving performance gains of up to 33\% on the challenging Argoverse 2 and nuScenes datasets. Our method performs on par with leading optimization-based methods, yet speeds up 150 times. The code is open-sourced at https://github.com/KTH-RPL/OpenSceneFlow along with trained model weights.
- Abstract(参考訳): シーンフロー推定のための自己監督フィードフォワード法はリアルタイムな効率性を提供するが、2フレームの対応からの監督は信頼性が低く、しばしば閉塞下で分解される。
複数フレームの監視は、過去のフレームからのモーションキューを組み込むことにより、より安定したガイダンスを提供する可能性があるが、2フレームの目的の拡張は、点対応がフレーム間で突然変化し、一貫性のない信号を生成するため、非効率である。
本稿では、時間的に一貫した監視をマイニングすることで、フィードフォワードモデルのマルチフレーム管理を可能にするTeFlowを提案する。
TeFlowは、複数のフレームにまたがって構築された候補プールから最も時間的に一貫した動作キューを集約することで、信頼性の高い監視信号を生成する時間的アンサンブル戦略を導入している。
大規模な評価は、TeFlowが自己教師型フィードフォワードメソッドの新たな最先端を確立し、挑戦的なArgoverse 2とnuScenesデータセットで最大33倍のパフォーマンス向上を実現していることを示している。
本手法は最適化手法と同等に動作するが,150倍の高速化が可能である。
コードはhttps://github.com/KTH-RPL/OpenSceneFlowで公開されている。
関連論文リスト
- DeltaFlow: An Efficient Multi-frame Scene Flow Estimation Method [10.777409790795351]
Delta$Flow(Delta$Flow)は、Delta$スキームを通じてモーションキューをキャプチャする軽量な3Dフレームワークである。
Delta$Flowは22%低いエラーと2倍高速な推論で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-08-23T15:06:59Z) - SuperFlow++: Enhanced Spatiotemporal Consistency for Cross-Modal Data Pretraining [62.433137130087445]
SuperFlow++は、連続するカメラペアを使用して事前トレーニングと下流タスクを統合する新しいフレームワークである。
SuperFlow++は様々なタスクや運転条件で最先端のメソッドよりも優れています。
強力な一般化性と計算効率により、SuperFlow++は、自動運転におけるデータ効率の高いLiDARベースの認識のための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2025-03-25T17:59:57Z) - Online Dense Point Tracking with Streaming Memory [54.22820729477756]
デンスポイントトラッキングは、ビデオのかなりの部分を通して、初期フレーム内のすべてのポイントの連続的な追跡を必要とする、困難なタスクである。
最近の点追跡アルゴリズムは、通常、最初のフレームから現在のフレームへの間接的な情報伝達のためにスライドウィンドウに依存する。
我々は、高密度のtextbfPOint textbfTracking とオンラインビデオ処理のための textbfStreaming メモリを備えた軽量で高速なモデルを提案する。
論文 参考訳(メタデータ) (2025-03-09T06:16:49Z) - Neural Eulerian Scene Flow Fields [59.57980592109722]
EulerFlowは、複数のドメインをチューニングすることなく、最初から動作します。
長期間の地平線上での推定ODEを解くことで、創発的な3次元点追跡挙動を示す。
2024年のArgoverse 2 Scene Flow Challengeでは、すべての先行技術より優れています。
論文 参考訳(メタデータ) (2024-10-02T20:56:45Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - MFT: Long-Term Tracking of Every Pixel [0.36832029288386137]
Multi-Flow dense Tracker - 濃密でピクセルレベルの長期追跡のための新しい手法。
連続するフレーム間で推定される光フローを利用する。
追跡は最先端の点追跡法よりも桁違いに高速である。
論文 参考訳(メタデータ) (2023-05-22T13:02:46Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。