論文の概要: Predictive online optimisation with applications to optical flow
- arxiv url: http://arxiv.org/abs/2002.03053v2
- Date: Mon, 3 Aug 2020 17:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 23:04:00.913090
- Title: Predictive online optimisation with applications to optical flow
- Title(参考訳): 予測オンライン最適化と光フローへの応用
- Authors: Tuomo Valkonen
- Abstract要約: オンラインは、未解決のまま問題に導入されている新しいデータを中心に展開している。
我々はこのアイデアを,光学的流れを伴うビデオ処理などの動的逆問題に適用する。
逆問題に対して、この効果は本質的に、時間的結合を伴う静的正規化器の不完全畳み込みに基づく新しい動的正規化器を構築することであることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online optimisation revolves around new data being introduced into a problem
while it is still being solved; think of deep learning as more training samples
become available. We adapt the idea to dynamic inverse problems such as video
processing with optical flow. We introduce a corresponding predictive online
primal-dual proximal splitting method. The video frames now exactly correspond
to the algorithm iterations. A user-prescribed predictor describes the
evolution of the primal variable. To prove convergence we need a predictor for
the dual variable based on (proximal) gradient flow. This affects the model
that the method asymptotically minimises. We show that for inverse problems the
effect is, essentially, to construct a new dynamic regulariser based on infimal
convolution of the static regularisers with the temporal coupling. We finish by
demonstrating excellent real-time performance of our method in computational
image stabilisation and convergence in terms of regularisation theory.
- Abstract(参考訳): オンラインの最適化は、まだ解決されている間、新しいデータが問題に導入されていることに関連している。
我々はこのアイデアを光学的流れを伴うビデオ処理などの動的逆問題に適用する。
本稿では,オンライン初等的近位分割の予測手法を提案する。
ビデオフレームはアルゴリズムの繰り返しと完全に一致する。
ユーザが記述した予測器は、主変数の進化を記述する。
収束を証明するには、(近位)勾配流れに基づく双対変数の予測器が必要である。
これは、この手法が漸近的に最小化するモデルに影響する。
逆問題に対しては、本質的には、静的正規化器と時間結合のインフィマル畳み込みに基づく新しい動的正規化器を構築することが効果であることを示す。
正規化理論による画像安定化と収束において,提案手法の優れたリアルタイム性能を示す。
関連論文リスト
- Online Proximal ADMM for Graph Learning from Streaming Smooth Signals [9.34612743192798]
我々は,潜伏グラフ上でスムーズな観測ストリームを用いたオンライングラフ学習のための新しいアルゴリズムを開発した。
我々のモダス・オペランは、グラフ信号を逐次処理し、メモリと計算コストを抑えることです。
提案手法は,現在最先端のオンライングラフ学習ベースラインと比較して,(準最適性の観点から)追跡性能が向上することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:12:03Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Particle-based Online Bayesian Sampling [24.290436348629452]
粒子の集合を用いて近似分布を表すオンライン粒子に基づく変分推論(OPVI)アルゴリズムについて検討する。
近似の利用による勾配誤差を低減するために, ばらつきを低減するために, バッチサイズを増大させるサブ線形を含む。
実験の結果,提案アルゴリズムは既存のベイズサンプリング手法をオンライン環境に適用するよりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-02-28T17:46:32Z) - Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning [90.8576971748142]
閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
論文 参考訳(メタデータ) (2022-03-04T08:50:50Z) - Breaking the Convergence Barrier: Optimization via Fixed-Time Convergent
Flows [4.817429789586127]
本稿では, 固定時間安定力学系の概念に基づいて, 加速を実現するための多言語最適化フレームワークを提案する。
提案手法の高速化された収束特性を,最先端の最適化アルゴリズムに対して様々な数値例で検証する。
論文 参考訳(メタデータ) (2021-12-02T16:04:40Z) - Meta-Regularization: An Approach to Adaptive Choice of the Learning Rate
in Gradient Descent [20.47598828422897]
第一次下降法における学習率の適応的選択のための新しいアプローチであるtextit-Meta-Regularizationを提案する。
本手法は,正規化項を追加して目的関数を修正し,共同処理パラメータをキャストする。
論文 参考訳(メタデータ) (2021-04-12T13:13:34Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。