論文の概要: NeuFlow v2: Push High-Efficiency Optical Flow To the Limit
- arxiv url: http://arxiv.org/abs/2408.10161v3
- Date: Sun, 03 Aug 2025 00:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.564157
- Title: NeuFlow v2: Push High-Efficiency Optical Flow To the Limit
- Title(参考訳): NeuFlow v2: 高効率光フローを限界まで押し上げる
- Authors: Zhiyong Zhang, Aniket Gupta, Huaizu Jiang, Hanumant Singh,
- Abstract要約: リアルタイムの高精度な光フロー推定は、様々な実世界のロボット応用に不可欠である。
我々は,計算オーバーヘッドの少ない実世界のデータセットに高い精度を提供する新しい方法であるNeuFlow-V2を提案する。
これはJetson Orin Nanoで512x384解像度の画像を20FPS以上で実行することができる。
- 参考スコア(独自算出の注目度): 6.157420789049589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time high-accuracy optical flow estimation is critical for a variety of real-world robotic applications. However, current learning-based methods often struggle to balance accuracy and computational efficiency: methods that achieve high accuracy typically demand substantial processing power, while faster approaches tend to sacrifice precision. These fast approaches specifically falter in their generalization capabilities and do not perform well across diverse real-world scenarios. In this work, we revisit the limitations of the SOTA methods and present NeuFlow-V2, a novel method that offers both - high accuracy in real-world datasets coupled with low computational overhead. In particular, we introduce a novel light-weight backbone and a fast refinement module to keep computational demands tractable while delivering accurate optical flow. Experimental results on synthetic and real-world datasets demonstrate that NeuFlow-V2 provides similar accuracy to SOTA methods while achieving 10x-70x speedups. It is capable of running at over 20 FPS on 512x384 resolution images on a Jetson Orin Nano. The full training and evaluation code is available at https://github.com/neufieldrobotics/NeuFlow_v2.
- Abstract(参考訳): リアルタイムの高精度な光フロー推定は、様々な実世界のロボット応用に不可欠である。
しかし、現在の学習ベースの手法は、精度と計算効率のバランスをとるのに苦労することが多く、高い精度を達成する方法は通常、かなりの処理能力を必要とするが、より高速な手法は精度を犠牲にする傾向がある。
これらの高速なアプローチは、特に一般化能力に干渉し、様々な現実世界のシナリオでうまく機能しない。
本研究では,SOTA手法の限界を再考し,計算オーバーヘッドの少ない実世界のデータセットに高い精度で対応できる新しい手法であるNeuFlow-V2を提案する。
特に,新しい軽量バックボーンと高速リファインメントモジュールを導入し,高精度な光フローを実現するとともに,計算要求の処理性を維持する。
合成および実世界のデータセットによる実験結果から,NeuFlow-V2はSOTA法と同様の精度で10x-70xの高速化を実現していることがわかった。
これはJetson Orin Nanoで512x384解像度の画像を20FPS以上で実行することができる。
完全なトレーニングと評価のコードはhttps://github.com/neufieldrobotics/NeuFlow_v2で公開されている。
関連論文リスト
- Spatio-Temporal State Space Model For Efficient Event-Based Optical Flow [5.004444099596694]
イベントベースの動き推定(光学フロー)は多くのリアルタイムアプリケーションにとって重要である。
SNNやGNNなどのイベントベースの手法は計算効率が良いが、これらの手法は十分な非同期時間情報の取得に失敗する。
本稿では,新しいネットワークアーキテクチャとともにSTSSMモジュールを導入し,競争性能の高い効率的なソリューションを開発した。
論文 参考訳(メタデータ) (2025-06-09T15:51:06Z) - DPFlow: Adaptive Optical Flow Estimation with a Dual-Pyramid Framework [57.69159159559054]
最大8Kの解像度入力を一般化できる適応型光フローアーキテクチャDPFlowを提案する。
また,1Kから8Kまでの入力解像度を持つ光フロー評価のための新しいベンチマークであるKubric-NKを紹介する。
論文 参考訳(メタデータ) (2025-03-19T04:18:18Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - MemFlow: Optical Flow Estimation and Prediction with Memory [54.22820729477756]
本稿では,メモリを用いた光フロー推定と予測をリアルタイムに行うMemFlowを提案する。
本手法では,メモリの読み出しと更新を行うモジュールをリアルタイムに収集する。
われわれのアプローチは、過去の観測に基づいて、将来の光流の予測にシームレスに拡張する。
論文 参考訳(メタデータ) (2024-04-07T04:56:58Z) - NeuFlow: Real-time, High-accuracy Optical Flow Estimation on Robots Using Edge Devices [6.470511497023878]
リアルタイムの高精度光フロー推定は,様々な応用において重要な要素である。
我々は,高精度かつ計算コストの懸念に対処する,高速な光フローアーキテクチャであるNeuFlowを提案する。
当社のアプローチはエッジコンピューティングプラットフォーム上で約30FPSを実現しており、複雑なコンピュータビジョンタスクのデプロイにおいて大きなブレークスルーをもたらしている。
論文 参考訳(メタデータ) (2024-03-15T15:58:51Z) - Taming Contrast Maximization for Learning Sequential, Low-latency,
Event-based Optical Flow [18.335337530059867]
イベントカメラは、複雑なコンピュータビジョン問題に対する低レイテンシで低消費電力のソリューションのための新しい道を開くことで、大きな注目を集めている。
これらのソリューションをアンロックするには、イベントデータのユニークな性質を活用するアルゴリズムを開発する必要がある。
本研究では,イベントベース光フロー推定のための自己教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-09T12:37:33Z) - RealFlow: EM-based Realistic Optical Flow Dataset Generation from Videos [28.995525297929348]
RealFlowは、ラベルのないリアルなビデオから直接、大規模な光フローデータセットを作成することができるフレームワークである。
まず,一対のビデオフレーム間の光フローを推定し,予測されたフローに基づいて,このペアから新たな画像を生成する。
本手法は,教師付きおよび教師なしの光流法と比較して,2つの標準ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-22T13:33:03Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - Faster Meta Update Strategy for Noise-Robust Deep Learning [62.08964100618873]
我々は,メタグラデーションの最も高価なステップをより高速なレイヤワイズ近似に置き換えるために,新しいファMUS(Faster Meta Update Strategy)を導入する。
本手法は,同等あるいはさらに優れた一般化性能を維持しつつ,トレーニング時間の3分の2を節約できることを示す。
論文 参考訳(メタデータ) (2021-04-30T16:19:07Z) - AutoFlow: Learning a Better Training Set for Optical Flow [62.40293188964933]
AutoFlowは、光学フローのトレーニングデータをレンダリングする手法である。
AutoFlowはPWC-NetとRAFTの両方の事前トレーニングにおいて最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-04-29T17:55:23Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Reinforcement Learning with Latent Flow [78.74671595139613]
Flow of Latents for Reinforcement Learning (Flare)はRLのためのネットワークアーキテクチャであり、潜時ベクトル差分を通じて時間情報を明示的に符号化する。
本研究では,Frareが状態速度に明示的にアクセスすることなく,状態ベースRLの最適性能を回復することを示す。
我々はまた、FlareがDeepMindコントロールベンチマークスイート内のピクセルベースの挑戦的な連続制御タスクで最先端のパフォーマンスを達成することも示しています。
論文 参考訳(メタデータ) (2021-01-06T03:50:50Z) - FDFlowNet: Fast Optical Flow Estimation using a Deep Lightweight Network [12.249680550252327]
我々はFDFlowNet(fast Deep Flownet)と呼ばれるリアルタイム光フロー推定のための軽量で効果的なモデルを提案する。
我々は、PWC-Netの約2倍の速度で、挑戦的なKITTIとSintelベンチマークにおいて、より良い、あるいは同様の精度を達成する。
論文 参考訳(メタデータ) (2020-06-22T14:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。