論文の概要: ReynoldsFlow: Exquisite Flow Estimation via Reynolds Transport Theorem
- arxiv url: http://arxiv.org/abs/2503.04500v1
- Date: Thu, 06 Mar 2025 14:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:19.630465
- Title: ReynoldsFlow: Exquisite Flow Estimation via Reynolds Transport Theorem
- Title(参考訳): Reynolds Flow: Reynolds Transport Theorem による排他的フロー推定
- Authors: Yu-Hsi Chen, Chin-Tien Wu,
- Abstract要約: 近年のAIの進歩により、深層学習モデルでは、光学フローをモーション分析の重要な特徴として活用できるようになった。
従来の光学フロー法は、明るさやスローモーションの制約のような制限的な仮定に依存している。
フロービジュアライゼーションを改善するために,ReynoldsFlow+という別の表現を導入する。
- 参考スコア(独自算出の注目度): 0.02932486408310998
- License:
- Abstract: Optical flow is a fundamental technique for motion estimation, widely applied in video stabilization, interpolation, and object tracking. Recent advancements in artificial intelligence (AI) have enabled deep learning models to leverage optical flow as an important feature for motion analysis. However, traditional optical flow methods rely on restrictive assumptions, such as brightness constancy and slow motion constraints, limiting their effectiveness in complex scenes. Deep learning-based approaches require extensive training on large domain-specific datasets, making them computationally demanding. Furthermore, optical flow is typically visualized in the HSV color space, which introduces nonlinear distortions when converted to RGB and is highly sensitive to noise, degrading motion representation accuracy. These limitations inherently constrain the performance of downstream models, potentially hindering object tracking and motion analysis tasks. To address these challenges, we propose Reynolds flow, a novel training-free flow estimation inspired by the Reynolds transport theorem, offering a principled approach to modeling complex motion dynamics. Beyond the conventional HSV-based visualization, denoted ReynoldsFlow, we introduce an alternative representation, ReynoldsFlow+, designed to improve flow visualization. We evaluate ReynoldsFlow and ReynoldsFlow+ across three video-based benchmarks: tiny object detection on UAVDB, infrared object detection on Anti-UAV, and pose estimation on GolfDB. Experimental results demonstrate that networks trained with ReynoldsFlow+ achieve state-of-the-art (SOTA) performance, exhibiting improved robustness and efficiency across all tasks.
- Abstract(参考訳): 光フローは、動画の安定化、補間、物体追跡に広く応用されている動き推定の基本的な技術である。
近年の人工知能(AI)の進歩により、深層学習モデルでは、光学フローをモーション分析の重要な特徴として活用できるようになった。
しかし、従来の光学フロー法は、明るさの安定度やスローモーションの制約のような制限的な仮定に依存しており、複雑な場面での有効性を制限している。
ディープラーニングベースのアプローチでは、大きなドメイン固有のデータセットを広範囲にトレーニングする必要があるため、計算的に要求される。
さらに、光学フローは一般的にHSV色空間で可視化され、RGBに変換されたときの非線形歪みを導入し、ノイズに非常に敏感で、動きの表現精度を劣化させる。
これらの制限は、本質的に下流モデルの性能を制限し、オブジェクトのトラッキングやモーション分析のタスクを妨げる可能性がある。
これらの課題に対処するために、Reynolds Flowを提案する。これはReynolds輸送定理に触発された新しいトレーニングフリーフロー推定であり、複雑な運動力学をモデル化するための原則的なアプローチを提供する。
従来のHSVベースの可視化はReynoldsFlowと呼ばれ、フローの可視化を改善するためにReynoldsFlow+という代替表現を導入する。
我々は3つのビデオベースベンチマークでReynoldsFlowとReynoldsFlow+を評価し、UAVDBの小さなオブジェクト検出、アンチUAVの赤外線オブジェクト検出、GolfDBのポーズ推定を行った。
実験の結果,ReynoldsFlow+でトレーニングしたネットワークは最先端のSOTA(State-of-the-art)性能を実現し,すべてのタスクにおいて堅牢性と効率が向上した。
関連論文リスト
- FlowIE: Efficient Image Enhancement via Rectified Flow [71.6345505427213]
FlowIEはフローベースのフレームワークであり、基本的な分布から高品質な画像への直線パスを推定する。
私たちのコントリビューションは、合成および実世界のデータセットに関する包括的な実験を通じて、厳密に検証されています。
論文 参考訳(メタデータ) (2024-06-01T17:29:29Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Towards Anytime Optical Flow Estimation with Event Cameras [35.685866753715416]
イベントカメラは、マイクロ秒間の対数輝度の変化に対応することができる。
イベントカメラを介して収集された既存のデータセットは、限られたフレームレートの光学フローグラウンド真理を提供する。
本研究では,高フレームレートのイベント光流を生成するEVent-based Anytime Flow推定ネットワークであるEVA-Flowを提案する。
論文 参考訳(メタデータ) (2023-07-11T06:15:12Z) - TransFlow: Transformer as Flow Learner [22.727953339383344]
本稿では,光フロー推定のためのトランスフォーマーアーキテクチャであるTransFlowを提案する。
フロー推定において、より正確な相関と信頼できるマッチングを提供する。
ダイナミックなシーンにおける長距離時間的関連を通して、フロー推定においてより妥協された情報を復元する。
論文 参考訳(メタデータ) (2023-04-23T03:11:23Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。