論文の概要: Unsupervised Optical Flow Using Cost Function Unrolling
- arxiv url: http://arxiv.org/abs/2011.14814v1
- Date: Mon, 30 Nov 2020 14:10:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:58:26.020518
- Title: Unsupervised Optical Flow Using Cost Function Unrolling
- Title(参考訳): コスト関数アンロールを用いた教師なし光流
- Authors: Gal Lifshitz and Dan Raviv
- Abstract要約: 本稿では, コスト関数に着目し, ハードL1のスムーズ性制約をソフトな多層反復スキームに伝達するアンローリング反復法を提案する。
我々は MPI Sintel と KITTI 2015 の教師なし光フローベンチマークの両結果について報告する。
- 参考スコア(独自算出の注目度): 4.518012967046983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing motion between two consecutive images is one of the fundamental
tasks in computer vision. In the lack of labeled data, the loss functions are
split into consistency and smoothness, allowing for self-supervised training.
This paper focuses on the cost function derivation and presents an unrolling
iterative approach, transferring the hard L1 smoothness constraint into a
softer multi-layer iterative scheme. More accurate gradients, especially near
non-differential positions, improve the network's convergence, providing
superior results on tested scenarios. We report state-of-the-art results on
both MPI Sintel and KITTI 2015 unsupervised optical flow benchmarks. The
provided approach can be used to enhance various architectures and not limited
just to the presented pipeline.
- Abstract(参考訳): 2つの連続した画像間の動きを分析することは、コンピュータビジョンの基本的な課題の1つである。
ラベル付きデータの欠如により、損失関数は一貫性と滑らかさに分割され、自己教師付きトレーニングが可能になる。
本稿では, コスト関数の導出に焦点をあて, ハードL1のスムーズ性制約をソフトな多層反復スキームに伝達するアンローリング反復法を提案する。
より正確な勾配、特に非微分位置に近い位置は、ネットワークの収束を改善し、テストシナリオにおいて優れた結果をもたらす。
我々は MPI Sintel と KITTI 2015 の教師なし光フローベンチマークの両結果について報告する。
提供されたアプローチは、提示されたパイプラインに限らず、さまざまなアーキテクチャを強化するために使用できる。
関連論文リスト
- Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Directional Smoothness and Gradient Methods: Convergence and Adaptivity [16.779513676120096]
我々は、最適化の経路に沿った目的の条件付けに依存する勾配降下に対する新しい準最適境界を開発する。
我々の証明の鍵となるのは方向の滑らかさであり、これは、目的の上のバウンドを開発するために使用する勾配変動の尺度である。
我々は,方向の滑らかさの知識を使わずとも,ポリアクのステップサイズと正規化GDが高速で経路依存の速度を得ることを示した。
論文 参考訳(メタデータ) (2024-03-06T22:24:05Z) - Implicit regularization in AI meets generalized hardness of
approximation in optimization -- Sharp results for diagonal linear networks [0.0]
直交線形ネットワークの勾配流による暗黙の正規化について, 鋭い結果を示す。
これを近似の一般化硬度における相転移現象と関連付ける。
結果の非シャープ性は、基礎追従最適化問題に対して、GHA現象が起こらないことを意味する。
論文 参考訳(メタデータ) (2023-07-13T13:27:51Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。