論文の概要: Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering
- arxiv url: http://arxiv.org/abs/2011.04803v1
- Date: Mon, 9 Nov 2020 22:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:43:31.524582
- Title: Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering
- Title(参考訳): 曲率認識勾配フィルタリングを用いた自己チューニング確率最適化
- Authors: Ricky T. Q. Chen, Dami Choi, Lukas Balles, David Duvenaud, Philipp
Hennig
- Abstract要約: サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
- 参考スコア(独自算出の注目度): 53.523517926927894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard first-order stochastic optimization algorithms base their updates
solely on the average mini-batch gradient, and it has been shown that tracking
additional quantities such as the curvature can help de-sensitize common
hyperparameters. Based on this intuition, we explore the use of exact
per-sample Hessian-vector products and gradients to construct optimizers that
are self-tuning and hyperparameter-free. Based on a dynamics model of the
gradient, we derive a process which leads to a curvature-corrected,
noise-adaptive online gradient estimate. The smoothness of our updates makes it
more amenable to simple step size selection schemes, which we also base off of
our estimates quantities. We prove that our model-based procedure converges in
the noisy quadratic setting. Though we do not see similar gains in deep
learning tasks, we can match the performance of well-tuned optimizers and
ultimately, this is an interesting step for constructing self-tuning
optimizers.
- Abstract(参考訳): 標準の1次確率最適化アルゴリズムは、平均的なミニバッチ勾配のみに基づいて更新を行い、曲率などの追加量の追跡は、一般的なハイパーパラメータの非感度化に役立つことが示されている。
この直観に基づき、サンプル毎のヘッセンベクトル積と勾配を用いて、自己チューニングおよびハイパーパラメータフリーなオプティマイザを構築する。
勾配の動的モデルに基づいて、曲率補正された雑音適応オンライン勾配推定につながる過程を導出する。
アップデートのスムーズさにより、単純なステップサイズの選択スキームがより快適になり、見積もりの量にも基づきます。
モデルに基づく手続きがうるさい二次設定に収束することを示す。
ディープラーニングタスクでは同じようなメリットは見られませんが、よく調整されたオプティマイザのパフォーマンスと一致します。
関連論文リスト
- Multi-fidelity Constrained Optimization for Stochastic Black Box
Simulators [1.6385815610837167]
上記の問題に対処するために、Scout-Nd (Stochastic Constrained Optimization for N dimensions) アルゴリズムを導入する。
Scout-Ndは効率よく勾配を推定し、推定器勾配のノイズを低減し、計算労力をさらに削減するために多重忠実性スキームを適用する。
提案手法を標準ベンチマークで検証し,既存の手法よりも優れた性能を示すパラメータの最適化の有効性を示す。
論文 参考訳(メタデータ) (2023-11-25T23:36:38Z) - Online Sensitivity Optimization in Differentially Private Learning [8.12606646175019]
クリッピング閾値を動的に最適化する新しい手法を提案する。
我々は、このしきい値を学習可能なパラメータとして扱い、しきい値とコスト関数のクリーンな関係を確立する。
提案手法は, 多様なデータセット, タスク, モデル次元, プライバシレベルにまたがる代替的かつ適応的な戦略に対して, 徹底的に評価される。
論文 参考訳(メタデータ) (2023-10-02T00:30:49Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Adaptive Optimization with Examplewise Gradients [23.504973357538418]
本稿では,機械学習のための勾配に基づく最適化手法の設計に対して,より汎用的なアプローチを提案する。
この新しいフレームワークでは、イテレーションは単一の見積もりではなく、パラメータごとの見積もりのバッチへのアクセスを前提としています。
これは、典型的な機械学習のセットアップで実際に利用できる情報を反映している。
論文 参考訳(メタデータ) (2021-11-30T23:37:01Z) - Adaptive Importance Sampling for Finite-Sum Optimization and Sampling
with Decreasing Step-Sizes [4.355567556995855]
ステップサイズを小さくした有限サム最適化とサンプリングのための適応的重要度サンプリングのための簡易かつ効率的なアルゴリズムであるavareを提案する。
標準的な技術的条件下では、$mathcalO(T2/3)$と$mathcalO(T5/6)$の動的後悔をそれぞれ、$mathcalO(T5/6)$のステップサイズで実行するときに達成している。
論文 参考訳(メタデータ) (2021-03-23T00:28:15Z) - Hyperboost: Hyperparameter Optimization by Gradient Boosting surrogate
models [0.4079265319364249]
現在の最先端の方法は、ランダムフォレストまたはガウスプロセスを利用してサーロゲートモデルを構築しています。
勾配向上に基づく新しいサロゲートモデルを提案する。
実験により,新しい手法は,ある程度の分類問題に対して,最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-06T22:07:19Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。