論文の概要: Implicit differentiation for fast hyperparameter selection in non-smooth
convex learning
- arxiv url: http://arxiv.org/abs/2105.01637v1
- Date: Tue, 4 May 2021 17:31:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 13:03:19.077323
- Title: Implicit differentiation for fast hyperparameter selection in non-smooth
convex learning
- Title(参考訳): 非平滑凸学習における高速ハイパーパラメータ選択のための暗黙差分法
- Authors: Quentin Bertrand, Quentin Klopfenstein, Mathurin Massias, Mathieu
Blondel, Samuel Vaiter, Alexandre Gramfort, Joseph Salmon
- Abstract要約: 内部最適化問題が凸であるが非滑らかである場合の一階法を研究する。
本研究では, ヤコビアンの近位勾配降下と近位座標降下収率列の前方モード微分が, 正確なヤコビアンに向かって収束していることを示す。
- 参考スコア(独自算出の注目度): 87.60600646105696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding the optimal hyperparameters of a model can be cast as a bilevel
optimization problem, typically solved using zero-order techniques. In this
work we study first-order methods when the inner optimization problem is convex
but non-smooth. We show that the forward-mode differentiation of proximal
gradient descent and proximal coordinate descent yield sequences of Jacobians
converging toward the exact Jacobian. Using implicit differentiation, we show
it is possible to leverage the non-smoothness of the inner problem to speed up
the computation. Finally, we provide a bound on the error made on the
hypergradient when the inner optimization problem is solved approximately.
Results on regression and classification problems reveal computational benefits
for hyperparameter optimization, especially when multiple hyperparameters are
required.
- Abstract(参考訳): モデルの最適ハイパーパラメータを見つけることは二段階最適化問題であり、典型的にはゼロオーダー法を用いて解決される。
本研究では,内部最適化問題が凸だがスムースでない場合の一階法について検討する。
本研究では, ヤコビアンの近位勾配降下と近位座標降下収率列の前方モード微分が, 正確なヤコビアンに向かって収束していることを示す。
暗黙的な微分を用いることで,内部問題の非スムースネスを利用して計算を高速化できることを示す。
最後に,インナー最適化問題を概ね解いた場合,ハイパーグラディエントに生じる誤差のバウンドを与える。
回帰と分類問題の結果は、特に複数のハイパーパラメータを必要とする場合、ハイパーパラメータ最適化の計算上の利点を示す。
関連論文リスト
- Methods for Convex $(L_0,L_1)$-Smooth Optimization: Clipping, Acceleration, and Adaptivity [50.25258834153574]
我々は、(強に)凸 $(L0)$-smooth 関数のクラスに焦点を当て、いくつかの既存のメソッドに対する新しい収束保証を導出する。
特に,スムーズなグラディエント・クリッピングを有するグラディエント・ディフレッシュと,ポリアク・ステップサイズを有するグラディエント・ディフレッシュのコンバージェンス・レートの改善を導出した。
論文 参考訳(メタデータ) (2024-09-23T13:11:37Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - A simple uniformly optimal method without line search for convex optimization [9.280355951055865]
パラメータが優先されていない凸最適化問題の解法として最適収束率を得るには,線探索が過剰であることを示す。
滑らかな凸最適化のために最適な$mathcalO (1/k2)$収束率を達成できるAC-FGMと呼ばれる新しい勾配降下型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-16T05:26:03Z) - Analyzing Inexact Hypergradients for Bilevel Learning [0.09669369645900441]
暗黙の関数定理と自動微分/バックプロパゲーションに基づいて既存の手法を一般化する過次計算のための統一的なフレームワークを提案する。
計算結果から,高次アルゴリズムの選択は低次解法の選択と同等に重要であることが明らかとなった。
論文 参考訳(メタデータ) (2023-01-11T23:54:27Z) - Alternating Differentiation for Optimization Layers [133.2668019610731]
そこで我々は,最適化問題を識別するAlternating Differentiation (Alt-Diff) という新しいフレームワークを開発した。
Alt-Diff はヤコビ行列の次元を特に大規模制約のある最適化のために著しく減少させることを示す。
また,Alt-Diffを切断して計算速度をさらに高速化することを提案する。
論文 参考訳(メタデータ) (2022-10-03T11:32:13Z) - The Curse of Unrolling: Rate of Differentiating Through Optimization [35.327233435055305]
未分化は反復解法を用いて解を近似し、計算経路を通して解を微分する。
我々は,(1)高速収束につながる大きな学習率を選択することができるが,アルゴリズムが任意に長いバーンインフェーズを持つことを受け入れるか,あるいは(2)即時収束につながるより少ない学習率を選択するかのどちらかを示す。
論文 参考訳(メタデータ) (2022-09-27T09:27:29Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Adaptive First-and Zeroth-order Methods for Weakly Convex Stochastic
Optimization Problems [12.010310883787911]
我々は、弱凸(おそらく非滑らかな)最適化問題の重要なクラスを解くための、適応的な段階的な新しい手法の族を解析する。
実験結果から,提案アルゴリズムが0次勾配降下と設計変動を経験的に上回ることを示す。
論文 参考訳(メタデータ) (2020-05-19T07:44:52Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。