論文の概要: MEMFOF: High-Resolution Training for Memory-Efficient Multi-Frame Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2506.23151v1
- Date: Sun, 29 Jun 2025 09:01:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.747754
- Title: MEMFOF: High-Resolution Training for Memory-Efficient Multi-Frame Optical Flow Estimation
- Title(参考訳): MEMFOF: メモリ効率の良い多フレーム光フロー推定のための高分解能トレーニング
- Authors: Vladislav Bargatin, Egor Chistov, Alexander Yakovenko, Dmitriy Vatolin,
- Abstract要約: MEMFOFはメモリ効率のよい多フレーム光フロー法である。
メソッドは1080pの入力に対して実行時に2.09GBのGPUメモリと28.5GBのトレーニングを必要とする。
メソッドはSpringベンチマークで最初に1ピクセル (1px) の出力レートが3.289である。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in optical flow estimation have prioritized accuracy at the cost of growing GPU memory consumption, particularly for high-resolution (FullHD) inputs. We introduce MEMFOF, a memory-efficient multi-frame optical flow method that identifies a favorable trade-off between multi-frame estimation and GPU memory usage. Notably, MEMFOF requires only 2.09 GB of GPU memory at runtime for 1080p inputs, and 28.5 GB during training, which uniquely positions our method to be trained at native 1080p without the need for cropping or downsampling. We systematically revisit design choices from RAFT-like architectures, integrating reduced correlation volumes and high-resolution training protocols alongside multi-frame estimation, to achieve state-of-the-art performance across multiple benchmarks while substantially reducing memory overhead. Our method outperforms more resource-intensive alternatives in both accuracy and runtime efficiency, validating its robustness for flow estimation at high resolutions. At the time of submission, our method ranks first on the Spring benchmark with a 1-pixel (1px) outlier rate of 3.289, leads Sintel (clean) with an endpoint error (EPE) of 0.963, and achieves the best Fl-all error on KITTI-2015 at 2.94%. The code is available at https://github.com/msu-video-group/memfof.
- Abstract(参考訳): 光流量推定の最近の進歩は、特に高解像度(FullHD)入力において、GPUメモリ消費の増加コストで精度を優先している。
本稿では,メモリ効率のよい多フレーム光フロー手法であるMEMFOFを紹介する。
特に、MEMFOFは1080pの入力に対して実行時にわずか2.09GBのGPUメモリと28.5GBのトレーニングを必要とする。
RAFTアーキテクチャからの設計選択を体系的に再検討し、相関ボリュームの削減とマルチフレーム推定と高分解能トレーニングプロトコルを統合し、複数のベンチマークで最先端性能を実現し、メモリオーバーヘッドを大幅に削減した。
提案手法は,精度と実行効率の両面で資源集約的な代替手段よりも優れており,高分解能でのフロー推定の堅牢性を検証している。
提案手法は,1ピクセル (1px) の出力レートが3.289,Sintel (clean) のエンドポイントエラー (EPE) が0.963,KITTI-2015のFlオールエラーが2.94%であった。
コードはhttps://github.com/msu-video-group/memfof.comで公開されている。
関連論文リスト
- Efficient Correlation Volume Sampling for Ultra-High-Resolution Optical Flow Estimation [10.244450933742089]
RAFTで定義された正確な数学的演算子と一致する全対相関体積サンプリングのより効率的な実装を提案する。
提案手法は,低メモリ使用率を維持しながら,オンデマンドサンプリングを最大90%向上させ,最大95%のメモリ使用率でデフォルト実装と同等に動作させる。
論文 参考訳(メタデータ) (2025-05-22T17:30:38Z) - Dataset Distillation with Neural Characteristic Function: A Minmax Perspective [39.77640775591437]
minmax最適化問題としてデータセット蒸留を再構成し、ニューラル特徴関数離散性(NCFD)を導入する。
NCFDは分布差を測定するための包括的で理論的に基礎付けられた計量である。
提案手法は,低解像度および高解像度のデータセット上での最先端手法よりも高い性能向上を実現する。
論文 参考訳(メタデータ) (2025-02-28T02:14:55Z) - Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - LLMem: Estimating GPU Memory Usage for Fine-Tuning Pre-Trained LLMs [4.536118764799076]
ハードウェアに制限がある微調整済みの大規模言語モデルでは、GPUメモリの制約が問題となっている。
LLMemは、分散微調整法を適用する際のGPUメモリ消費を推定するソリューションである。
LLMemは1つのGPU上でのピークGPUメモリ使用量を正確に推定し、エラー率は最大1.6%であることを示す。
論文 参考訳(メタデータ) (2024-04-16T22:11:35Z) - MemFlow: Optical Flow Estimation and Prediction with Memory [54.22820729477756]
本稿では,メモリを用いた光フロー推定と予測をリアルタイムに行うMemFlowを提案する。
本手法では,メモリの読み出しと更新を行うモジュールをリアルタイムに収集する。
われわれのアプローチは、過去の観測に基づいて、将来の光流の予測にシームレスに拡張する。
論文 参考訳(メタデータ) (2024-04-07T04:56:58Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - ScopeFlow: Dynamic Scene Scoping for Optical Flow [94.42139459221784]
我々は,光流の一般的なトレーニングプロトコルを変更することを提案する。
この改善は、挑戦的なデータをサンプリングする際のバイアスを観察することに基づいている。
トレーニングプロトコルでは,正規化と拡張の双方が減少することが判明した。
論文 参考訳(メタデータ) (2020-02-25T09:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。