論文の概要: ReynoldsFlow: Exquisite Flow Estimation via Reynolds Transport Theorem
- arxiv url: http://arxiv.org/abs/2503.04500v2
- Date: Sun, 09 Mar 2025 17:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 11:38:50.716598
- Title: ReynoldsFlow: Exquisite Flow Estimation via Reynolds Transport Theorem
- Title(参考訳): Reynolds Flow: Reynolds Transport Theorem による排他的フロー推定
- Authors: Yu-Hsi Chen, Chin-Tien Wu,
- Abstract要約: レイノルズフロー(英: Reynolds flow)は、レイノルズ輸送定理にインスパイアされた訓練のないフロー推定である。
ニューラルネットワークの可視化と機能拡張を改善するために,ReynoldsフローのRGB符号化表現を導入する。
- 参考スコア(独自算出の注目度): 0.02932486408310998
- License:
- Abstract: Optical flow is a fundamental technique for motion estimation, widely applied in video stabilization, interpolation, and object tracking. Traditional optical flow estimation methods rely on restrictive assumptions like brightness constancy and slow motion constraints. Recent deep learning-based flow estimations require extensive training on large domain-specific datasets, making them computationally demanding. Also, artificial intelligence (AI) advances have enabled deep learning models to take advantage of optical flow as an important feature for object tracking and motion analysis. Since optical flow is commonly encoded in HSV for visualization, its conversion to RGB for neural network processing is nonlinear and may introduce perceptual distortions. These transformations amplify the sensitivity to estimation errors, potentially affecting the predictive accuracy of the networks. To address these challenges that are influential to the performance of downstream network models, we propose Reynolds flow, a novel training-free flow estimation inspired by the Reynolds transport theorem, offering a principled approach to modeling complex motion dynamics. In addition to conventional HSV-based visualization of Reynolds flow, we also introduce an RGB-encoded representation of Reynolds flow designed to improve flow visualization and feature enhancement for neural networks. We evaluated the effectiveness of Reynolds flow in video-based tasks. Experimental results on three benchmarks, tiny object detection on UAVDB, infrared object detection on Anti-UAV, and pose estimation on GolfDB, demonstrate that networks trained with RGB-encoded Reynolds flow achieve SOTA performance, exhibiting improved robustness and efficiency across all tasks.
- Abstract(参考訳): 光フローは、動画の安定化、補間、物体追跡に広く応用されている動き推定の基本的な技術である。
従来の光学フロー推定法は、明るさの安定度やスローモーションの制約のような制限的な仮定に依存している。
最近のディープラーニングベースのフロー推定では、大きなドメイン固有のデータセットを広範囲にトレーニングする必要があるため、計算的に要求される。
また、人工知能(AI)の進歩により、物体追跡とモーション分析の重要な特徴として、ディープラーニングモデルによる光フローの活用が可能になった。
光の流れは可視化のためにHSVに符号化されているため、ニューラルネットワーク処理のためのRGBへの変換は非線形であり、知覚歪みをもたらす可能性がある。
これらの変換は、推定誤差に対する感度を増幅し、ネットワークの予測精度に影響を与える可能性がある。
下流ネットワークモデルの性能に影響を及ぼすこれらの課題に対処するために,Reynolds Flowを提案する。
また,従来のHSVによるレイノルズフローの可視化に加えて,ニューラルネットワークの可視化と機能強化を目的としたRGB符号化されたレイノルズフローの表現も導入する。
ビデオベースタスクにおけるレイノルズフローの有効性を評価した。
3つのベンチマーク、UAVDBでの小さな物体検出、アンチUAVでの赤外線物体検出、GolfDBでのポーズ推定の結果、RGBエンコードされたレイノルズ流でトレーニングされたネットワークがSOTA性能を実現し、全てのタスクにおいて堅牢性と効率が向上したことを示した。
関連論文リスト
- FlowIE: Efficient Image Enhancement via Rectified Flow [71.6345505427213]
FlowIEはフローベースのフレームワークであり、基本的な分布から高品質な画像への直線パスを推定する。
私たちのコントリビューションは、合成および実世界のデータセットに関する包括的な実験を通じて、厳密に検証されています。
論文 参考訳(メタデータ) (2024-06-01T17:29:29Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Towards Anytime Optical Flow Estimation with Event Cameras [35.685866753715416]
イベントカメラは、マイクロ秒間の対数輝度の変化に対応することができる。
イベントカメラを介して収集された既存のデータセットは、限られたフレームレートの光学フローグラウンド真理を提供する。
本研究では,高フレームレートのイベント光流を生成するEVent-based Anytime Flow推定ネットワークであるEVA-Flowを提案する。
論文 参考訳(メタデータ) (2023-07-11T06:15:12Z) - TransFlow: Transformer as Flow Learner [22.727953339383344]
本稿では,光フロー推定のためのトランスフォーマーアーキテクチャであるTransFlowを提案する。
フロー推定において、より正確な相関と信頼できるマッチングを提供する。
ダイナミックなシーンにおける長距離時間的関連を通して、フロー推定においてより妥協された情報を復元する。
論文 参考訳(メタデータ) (2023-04-23T03:11:23Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Unsupervised Motion Representation Enhanced Network for Action
Recognition [4.42249337449125]
連続するフレーム間の動きの表現は、ビデオの理解を大いに促進することが証明されている。
効果的な光フロー解決器であるTV-L1法は、抽出した光フローをキャッシュするために時間と費用がかかる。
UF-TSN(UF-TSN)は、軽量な非監視光フロー推定器を組み込んだ、エンドツーエンドのアクション認識手法です。
論文 参考訳(メタデータ) (2021-03-05T04:14:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。