論文の概要: Deep Equilibrium Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2204.08442v1
- Date: Mon, 18 Apr 2022 17:53:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 13:08:13.673524
- Title: Deep Equilibrium Optical Flow Estimation
- Title(参考訳): 深部平衡光フロー推定
- Authors: Shaojie Bai, Zhengyang Geng, Yash Savani, J. Zico Kolter
- Abstract要約: 最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
- 参考スコア(独自算出の注目度): 80.80992684796566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many recent state-of-the-art (SOTA) optical flow models use finite-step
recurrent update operations to emulate traditional algorithms by encouraging
iterative refinements toward a stable flow estimation. However, these RNNs
impose large computation and memory overheads, and are not directly trained to
model such stable estimation. They can converge poorly and thereby suffer from
performance degradation. To combat these drawbacks, we propose deep equilibrium
(DEQ) flow estimators, an approach that directly solves for the flow as the
infinite-level fixed point of an implicit layer (using any black-box solver),
and differentiates through this fixed point analytically (thus requiring $O(1)$
training memory). This implicit-depth approach is not predicated on any
specific model, and thus can be applied to a wide range of SOTA flow estimation
model designs. The use of these DEQ flow estimators allows us to compute the
flow faster using, e.g., fixed-point reuse and inexact gradients, consumes
$4\sim6\times$ times less training memory than the recurrent counterpart, and
achieves better results with the same computation budget. In addition, we
propose a novel, sparse fixed-point correction scheme to stabilize our DEQ flow
estimators, which addresses a longstanding challenge for DEQ models in general.
We test our approach in various realistic settings and show that it improves
SOTA methods on Sintel and KITTI datasets with substantially better
computational and memory efficiency.
- Abstract(参考訳): 近年のSOTA(State-of-the-art)光フローモデルの多くは、有限ステップの繰り返し更新操作を使用して、安定したフロー推定に向けて反復的な改善を奨励することによって、従来のアルゴリズムをエミュレートしている。
しかし、これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するよう直接訓練されていない。
それらは貧弱に収束し、パフォーマンスの低下に苦しむ。
これらの欠点に対処するため,我々は,暗黙的層の無限レベルの不動点(ブラックボックスソルバを使用)として直接フローを解き,この不動点を解析的に区別する手法であるdeq(deep equilibrium)フロー推定器を提案する(ただし,$o(1)$ トレーニングメモリが必要)。
この暗黙的な深さのアプローチは、特定のモデルでは予測されないため、幅広いsotaフロー推定モデル設計に適用することができる。
これらのDECフロー推定器を使うことで、例えば、固定点再利用や不正確な勾配を使ってフローを高速に計算し、4\sim6\times$4\sim6\timesのトレーニングメモリを消費し、同じ計算予算でより良い結果が得られる。
さらに,DECモデル全般に対する長年にわたる課題に対処する,DECフロー推定器の安定化を目的とした,新しい不動点修正手法を提案する。
我々は,本手法を様々な現実的な設定で検証し,SintelおよびKITTIデータセット上でSOTA法を改良し,計算効率とメモリ効率を大幅に向上したことを示す。
関連論文リスト
- Adaptive operator learning for infinite-dimensional Bayesian inverse problems [7.716833952167609]
本研究では,局所的に精度の高いサロゲートを強制することによって,モデリングエラーを段階的に低減できる適応型演算子学習フレームワークを開発した。
UKIフレームワークを用いて線形の場合において厳密な収束を保証する。
その結果,逆精度を維持しながら計算コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2023-10-27T01:50:33Z) - Training Energy-Based Normalizing Flow with Score-Matching Objectives [36.0810550035231]
エネルギーベース正規化フロー(EBFlow)と呼ばれる新しいフローベースモデリング手法を提案する。
本研究では,EBFlowをスコアマッチング目的に最適化することにより,線形変換に対するヤコビ行列式の計算を完全に回避できることを実証する。
論文 参考訳(メタデータ) (2023-05-24T15:54:29Z) - On an Edge-Preserving Variational Model for Optical Flow Estimation [0.0]
光流量推定のためのエッジ保存型$L1$正規化手法を提案する。
提案手法は,最先端のHhornとSchunckに基づく変分法と比較して,平均角度誤差と終点誤差を最大化する。
論文 参考訳(メタデータ) (2022-07-21T04:46:16Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。