論文の概要: POP: Prior-fitted Optimizer Policies
- arxiv url: http://arxiv.org/abs/2602.15473v1
- Date: Tue, 17 Feb 2026 10:27:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.03007
- Title: POP: Prior-fitted Optimizer Policies
- Title(参考訳): POP: 事前に適合したオプティマイザポリシー
- Authors: Jan Kobiolka, Christian Frey, Gresa Shala, Arlind Kadra, Erind Bedalli, Josif Grabocka,
- Abstract要約: POP(Prior Policies Policies)は、文脈情報に基づいて段階的に座標を予測できるメタ学習モデルである。
本モデルは,不適合な目的から抽出した数百万の合成最適化問題に基づいて学習した。
- 参考スコア(独自算出の注目度): 20.784587787548436
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Optimization refers to the task of finding extrema of an objective function. Classical gradient-based optimizers are highly sensitive to hyperparameter choices. In highly non-convex settings their performance relies on carefully tuned learning rates, momentum, and gradient accumulation. To address these limitations, we introduce POP (Prior-fitted Optimizer Policies), a meta-learned optimizer that predicts coordinate-wise step sizes conditioned on the contextual information provided in the optimization trajectory. Our model is learned on millions of synthetic optimization problems sampled from a novel prior spanning both convex and non-convex objectives. We evaluate POP on an established benchmark including 47 optimization functions of various complexity, where it consistently outperforms first-order gradient-based methods, non-convex optimization approaches (e.g., evolutionary strategies), Bayesian optimization, and a recent meta-learned competitor under matched budget constraints. Our evaluation demonstrates strong generalization capabilities without task-specific tuning.
- Abstract(参考訳): 最適化とは、目的関数の極限を求めるタスクを指す。
古典的な勾配に基づくオプティマイザはハイパーパラメータの選択に非常に敏感である。
非常に非凸な環境では、その性能は注意深く調整された学習率、運動量、勾配の蓄積に依存している。
これらの制約に対処するために,最適化トラジェクトリで提供されるコンテキスト情報に基づいて,座標方向のステップサイズを予測可能なメタ学習型オプティマイザであるPOP(Prior-fitted Optimizer Policies)を導入する。
本モデルは, 凸と非凸の両目的にまたがる新しい手法を用いて, 数百万の合成最適化問題から学習した。
POPは、様々な複雑性の47の最適化関数を含む確立されたベンチマークにおいて、一階勾配法、非凸最適化アプローチ(例えば、進化的戦略)、ベイズ最適化、そして近年の予算制約に適合したメタ学習競合よりも一貫して優れる。
本評価では,タスク固有のチューニングを使わずに,強力な一般化能力を示す。
関連論文リスト
- Simulated Annealing-based Candidate Optimization for Batch Acquisition Functions [0.5196289708103362]
本稿では,バッチ取得関数の候補最適化のためのシミュレーションアニーリングに基づくアプローチを提案する。
我々は,SLSQP (Sequential Least Squares Programming) に対するアプローチを,4つのベンチマーク多目的最適化問題に対して評価した。
論文 参考訳(メタデータ) (2026-01-12T06:51:49Z) - Optimizing Optimizers for Fast Gradient-Based Learning [53.81268610971847]
勾配学習における設計の自動化に関する理論的基礎を築いた。
勾配損失信号をパラメータ運動に変換する関数として扱うことにより、この問題は凸最適化問題の族に還元される。
論文 参考訳(メタデータ) (2025-12-06T09:50:41Z) - Scalable Min-Max Optimization via Primal-Dual Exact Pareto Optimization [66.51747366239299]
拡張ラグランジアンに基づくmin-max問題のスムーズな変種を提案する。
提案アルゴリズムは, 段階的戦略よりも目的数で拡張性が高い。
論文 参考訳(メタデータ) (2025-03-16T11:05:51Z) - Optimizing Posterior Samples for Bayesian Optimization via Rootfinding [2.94944680995069]
我々は,グローバルなルートフィンディングに基づく後方サンプルの効率的な大域的最適化手法を提案する。
注目すべきは、各集合から 1 点しか持たなくても、大域的最適度は大抵の場合発見されることである。
提案手法は,エントロピー探索の変種など,他の後部サンプルベース獲得関数の性能も向上する。
論文 参考訳(メタデータ) (2024-10-29T17:57:16Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Online Calibrated and Conformal Prediction Improves Bayesian Optimization [10.470326550507117]
本稿では,モデルに基づく意思決定やベイズ最適化における不確実性について検討する。
しかし、キャリブレーションの維持は、データが定常的ではなく、我々の行動に依存する場合、困難である。
我々は、オンライン学習に基づく簡単なアルゴリズムを用いて、非i.d.データのキャリブレーションを確実に維持することを提案する。
論文 参考訳(メタデータ) (2021-12-08T23:26:23Z) - BOSH: Bayesian Optimization by Sampling Hierarchically [10.10241176664951]
本稿では,階層的なガウス過程と情報理論の枠組みを組み合わせたBOルーチンを提案する。
BOSHは, ベンチマーク, シミュレーション最適化, 強化学習, ハイパーパラメータチューニングタスクにおいて, 標準BOよりも効率的で高精度な最適化を実現する。
論文 参考訳(メタデータ) (2020-07-02T07:35:49Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。