論文の概要: EDCFlow: Exploring Temporally Dense Difference Maps for Event-based Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2506.03512v1
- Date: Wed, 04 Jun 2025 02:55:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.117553
- Title: EDCFlow: Exploring Temporally Dense Difference Maps for Event-based Optical Flow Estimation
- Title(参考訳): EDCFlow:イベントベース光フロー推定のための時間密度差マップの探索
- Authors: Daikun Liu, Lei Cheng, Teng Wang, changyin Sun,
- Abstract要約: 本稿では,高分解能で高品質なフロー推定を実現するための軽量なイベントベース光フローネットワーク(EDCFlow)を提案する。
EDCFlowは、既存のメソッドに比べてより少ない複雑さでパフォーマンスを向上し、より優れた一般化を提供する。
- 参考スコア(独自算出の注目度): 17.388776062997813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent learning-based methods for event-based optical flow estimation utilize cost volumes for pixel matching but suffer from redundant computations and limited scalability to higher resolutions for flow refinement. In this work, we take advantage of the complementarity between temporally dense feature differences of adjacent event frames and cost volume and present a lightweight event-based optical flow network (EDCFlow) to achieve high-quality flow estimation at a higher resolution. Specifically, an attention-based multi-scale temporal feature difference layer is developed to capture diverse motion patterns at high resolution in a computation-efficient manner. An adaptive fusion of high-resolution difference motion features and low-resolution correlation motion features is performed to enhance motion representation and model generalization. Notably, EDCFlow can serve as a plug-and-play refinement module for RAFT-like event-based methods to enhance flow details. Extensive experiments demonstrate that EDCFlow achieves better performance with lower complexity compared to existing methods, offering superior generalization.
- Abstract(参考訳): イベントベース光フロー推定の最近の学習手法は, 画素マッチングにコストボリュームを利用するが, 冗長な計算と高分解能のフローリファインメントに制限のあるスケーラビリティに悩まされている。
本研究では,隣接するイベントフレームの時間的に密な特徴差とコストボリュームの相補性を利用して,高分解能で高品質なフロー推定を実現する軽量なイベントベース光フローネットワーク(EDCFlow)を提案する。
具体的には,高分解能な動作パターンを計算効率よく捉えるために,注目に基づく多スケール時間特徴差層を開発した。
高分解能差動特徴と低分解能相関動特徴の適応融合を行い、運動表現とモデル一般化を強化する。
特に、EDCFlowはRAFTのようなイベントベースのメソッドのためのプラグイン・アンド・プレイ・リファインメント・モジュールとして機能し、フローの詳細を強化することができる。
大規模な実験により、EDCFlowは既存の手法に比べてより少ない複雑さでより良いパフォーマンスを達成し、より優れた一般化を提供することが示された。
関連論文リスト
- HiFlow: Training-free High-Resolution Image Generation with Flow-Aligned Guidance [70.69373563281324]
HiFlowはトレーニング不要でモデルに依存しないフレームワークで、事前トレーニングされたフローモデルの解像度ポテンシャルを解放する。
HiFlowはT2Iモデルの高解像度画像合成の品質を大幅に向上させる。
論文 参考訳(メタデータ) (2025-04-08T17:30:40Z) - FlowIE: Efficient Image Enhancement via Rectified Flow [71.6345505427213]
FlowIEはフローベースのフレームワークであり、基本的な分布から高品質な画像への直線パスを推定する。
私たちのコントリビューションは、合成および実世界のデータセットに関する包括的な実験を通じて、厳密に検証されています。
論文 参考訳(メタデータ) (2024-06-01T17:29:29Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - AccFlow: Backward Accumulation for Long-Range Optical Flow [70.4251045372285]
本稿では、長距離光フロー推定のためのAccFlowと呼ばれる新しいリカレントフレームワークを提案する。
従来の前方累積よりも後方累積の方が優れていることを示す。
長距離光流量推定におけるAccFlowの有効性を検証する実験
論文 参考訳(メタデータ) (2023-08-25T01:51:26Z) - AnyFlow: Arbitrary Scale Optical Flow with Implicit Neural
Representation [17.501820140334328]
我々は,様々な解像度の画像から正確な流れを推定するロバストなネットワークであるAnyFlowを紹介した。
我々は,KITTIデータセット上でのクロスデータセット一般化の最先端性能を確立する。
論文 参考訳(メタデータ) (2023-03-29T07:03:51Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - STaRFlow: A SpatioTemporal Recurrent Cell for Lightweight Multi-Frame
Optical Flow Estimation [64.99259320624148]
マルチフレーム光フロー推定のための軽量CNNアルゴリズムを提案する。
結果のSTaRFlowアルゴリズムは、MPI SintelとKitti2015で最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2020-07-10T17:01:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。