論文の概要: Glocal Hypergradient Estimation with Koopman Operator
- arxiv url: http://arxiv.org/abs/2402.02741v1
- Date: Mon, 5 Feb 2024 05:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:33:34.447740
- Title: Glocal Hypergradient Estimation with Koopman Operator
- Title(参考訳): Koopman演算子を用いた局所過勾配推定
- Authors: Ryuichiro Hataya and Yoshinobu Kawahara
- Abstract要約: 本稿では,「グローバル」品質と「ローカル」効率を融合した局所過次推定法を提案する。
この目的のために、我々はKoopman演算子理論を用いて超勾配の力学を線形化し、大域超勾配を局所超勾配の軌跡を用いてのみ効率的に近似することができる。
- 参考スコア(独自算出の注目度): 9.53027948253249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient-based hyperparameter optimization methods update hyperparameters
using hypergradients, gradients of a meta criterion with respect to
hyperparameters. Previous research used two distinct update strategies:
optimizing hyperparameters using global hypergradients obtained after
completing model training or local hypergradients derived after every few model
updates. While global hypergradients offer reliability, their computational
cost is significant; conversely, local hypergradients provide speed but are
often suboptimal. In this paper, we propose glocal hypergradient estimation,
blending "global" quality with "local" efficiency. To this end, we use the
Koopman operator theory to linearize the dynamics of hypergradients so that the
global hypergradients can be efficiently approximated only by using a
trajectory of local hypergradients. Consequently, we can optimize
hyperparameters greedily using estimated global hypergradients, achieving both
reliability and efficiency simultaneously. Through numerical experiments of
hyperparameter optimization, including optimization of optimizers, we
demonstrate the effectiveness of the glocal hypergradient estimation.
- Abstract(参考訳): 勾配に基づくハイパーパラメータ最適化手法は、ハイパーパラメータに対するメタ基準の勾配である過勾配を用いてハイパーパラメータを更新する。
これまでの研究では、2つの異なるアップデート戦略を使用していた: モデルトレーニングを完了した後に得られたグローバルハイパーグレードを使用してハイパーパラメータを最適化するか、いくつかのモデル更新ごとに派生したローカルハイパーグレードを最適化する。
グローバル・ハイパーグレードエントは信頼性を提供するが、計算コストは重要であり、逆にローカル・ハイパーグレードエントは速度を提供するが、しばしば最適ではない。
本稿では,「グローバル」品質と「ローカル」効率を融合したglocal hypergradient estimationを提案する。
この目的のために、我々はKoopman演算子理論を用いて超勾配の力学を線形化し、大域超勾配を局所超勾配の軌道を用いてのみ効率的に近似することができる。
その結果、推定されたグローバル・ハイパーグレードエントを用いて高パラメータを柔軟に最適化し、信頼性と効率を同時に達成することができる。
最適化器の最適化を含むハイパーパラメータ最適化の数値実験を通じて,glocal hypergradient estimationの有効性を示す。
関連論文リスト
- Fine-Tuning Adaptive Stochastic Optimizers: Determining the Optimal Hyperparameter $ε$ via Gradient Magnitude Histogram Analysis [0.7366405857677226]
我々は、損失の大きさの経験的確率密度関数に基づく新しい枠組みを導入し、これを「緩やかな等級ヒストグラム」と呼ぶ。
そこで本稿では, 最適安全のための精密かつ高精度な探索空間を自動推定するために, 勾配等級ヒストグラムを用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-20T04:34:19Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - CPMLHO:Hyperparameter Tuning via Cutting Plane and Mixed-Level
Optimization [24.39326333982495]
CPMLHOは切削平面法と混合レベル目的関数を用いた新しいハイパーパラメータ最適化法である。
既存の手法と比較して,本手法はトレーニングプロセスのハイパーパラメータを自動的に更新することができる。
論文 参考訳(メタデータ) (2022-12-11T07:46:19Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Hyper-parameter optimization based on soft actor critic and hierarchical
mixture regularization [5.063728016437489]
我々はマルコフ決定プロセスとしてハイパーパラメータ最適化プロセスをモデル化し、強化学習でそれに取り組む。
ソフトアクター評論家と階層混合正規化に基づく新しいハイパーパラメータ最適化法が提案されている。
論文 参考訳(メタデータ) (2021-12-08T02:34:43Z) - Reducing the Variance of Gaussian Process Hyperparameter Optimization
with Preconditioning [54.01682318834995]
プレコンディショニングは、行列ベクトル乗算を含む反復的な方法にとって非常に効果的なステップである。
プレコンディショニングには、これまで検討されていなかった付加的なメリットがあることを実証する。
基本的に無視可能なコストで、同時に分散を低減することができる。
論文 参考訳(メタデータ) (2021-07-01T06:43:11Z) - Implicit differentiation for fast hyperparameter selection in non-smooth
convex learning [87.60600646105696]
内部最適化問題が凸であるが非滑らかである場合の一階法を研究する。
本研究では, ヤコビアンの近位勾配降下と近位座標降下収率列の前方モード微分が, 正確なヤコビアンに向かって収束していることを示す。
論文 参考訳(メタデータ) (2021-05-04T17:31:28Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。