論文の概要: Convergence Properties of Stochastic Hypergradients
- arxiv url: http://arxiv.org/abs/2011.07122v2
- Date: Mon, 12 Apr 2021 10:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:34:49.134182
- Title: Convergence Properties of Stochastic Hypergradients
- Title(参考訳): 確率的超次数の収束特性
- Authors: Riccardo Grazzi, Massimiliano Pontil, Saverio Salzo
- Abstract要約: 大規模データセットにおける低レベルの問題が経験的リスクである場合に重要となる過勾配の近似スキームについて検討する。
本研究では,理論解析を支援する数値実験を行い,実際にハイパーグラディエントを用いることの利点を示す。
- 参考スコア(独自算出の注目度): 38.64355126221992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bilevel optimization problems are receiving increasing attention in machine
learning as they provide a natural framework for hyperparameter optimization
and meta-learning. A key step to tackle these problems is the efficient
computation of the gradient of the upper-level objective (hypergradient). In
this work, we study stochastic approximation schemes for the hypergradient,
which are important when the lower-level problem is empirical risk minimization
on a large dataset. The method that we propose is a stochastic variant of the
approximate implicit differentiation approach in (Pedregosa, 2016). We provide
bounds for the mean square error of the hypergradient approximation, under the
assumption that the lower-level problem is accessible only through a stochastic
mapping which is a contraction in expectation. In particular, our main bound is
agnostic to the choice of the two stochastic solvers employed by the procedure.
We provide numerical experiments to support our theoretical analysis and to
show the advantage of using stochastic hypergradients in practice.
- Abstract(参考訳): ハイパーパラメータ最適化とメタラーニングの自然なフレームワークを提供するため、バイレベル最適化の問題は機械学習で注目を集めています。
これらの問題に取り組むための重要なステップは、上層目標(ハイパーグラディエント)の勾配の効率的な計算である。
本研究では,大規模データセット上の経験的リスク最小化が低レベル問題である場合には,超次数に対する確率的近似スキームについて検討する。
提案手法は, Pedregosa (2016) における近似的暗黙的微分アプローチの確率的変種である。
過次近似の平均二乗誤差に対して、下層問題は期待の縮約である確率写像を通してのみアクセス可能であるという仮定の下で境界を与える。
特に、我々の主な境界は、この手順で用いられる2つの確率的解法の選択に非依存である。
理論解析を補助する数値実験を行い, 確率的超次数を実際に利用することの利点を示す。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Analyzing Inexact Hypergradients for Bilevel Learning [0.09669369645900441]
暗黙の関数定理と自動微分/バックプロパゲーションに基づいて既存の手法を一般化する過次計算のための統一的なフレームワークを提案する。
計算結果から,高次アルゴリズムの選択は低次解法の選択と同等に重要であることが明らかとなった。
論文 参考訳(メタデータ) (2023-01-11T23:54:27Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - Stability and Generalization of Stochastic Optimization with Nonconvex
and Nonsmooth Problems [34.68590236021379]
本稿では,アルゴリズム的安定度と定量的勾配と人口間のギャップについて述べる。
これらのアルゴリズムを、暗黙の規則的な反復ステップサイズと適応勾配勾配を達成するためにどのように適用するかを示す。
論文 参考訳(メタデータ) (2022-06-14T18:14:30Z) - Inexact bilevel stochastic gradient methods for constrained and
unconstrained lower-level problems [0.0]
2段階の定式探索最適化は多くの機械学習の文脈で有効になっている。
2階微分を必要としない新しい低ランク二階勾配法が開発されている。
論文 参考訳(メタデータ) (2021-10-01T18:20:14Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - On the Iteration Complexity of Hypergradient Computation [38.409444179509705]
機械学習では、上層目標(過度)の勾配は、正確に計算するのは難しいか、あるいは不可能である。
逆モード反復微分と近似的暗黙的微分に基づく過次微分を計算するための一般的なアプローチについて検討する。
この分析は, 共役勾配に基づく近似的暗黙差を最良とする, 上記の手法の計算効率の階層性を示す。
論文 参考訳(メタデータ) (2020-06-29T17:32:47Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。