論文の概要: LAGO: A Local-Global Optimization Framework Combining Trust Region Methods and Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2603.02970v1
- Date: Tue, 03 Mar 2026 13:24:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.813618
- Title: LAGO: A Local-Global Optimization Framework Combining Trust Region Methods and Bayesian Optimization
- Title(参考訳): LAGO: 信頼領域法とベイズ最適化を組み合わせたローカル・グローバル最適化フレームワーク
- Authors: Eliott Van Dieren, Tommaso Vanzan, Fabio Nobile,
- Abstract要約: 本稿では,勾配強調ベイズ最適化と勾配に基づく信頼領域局所改善を組み合わせたLocAl-Global OptimizationアルゴリズムであるLAGOを紹介する。
各イテレーションにおいて、グローバルとローカルの最適化戦略は独立して候補点を提案し、予測された改善に基づいて次の評価が選択される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce LAGO, a LocAl-Global Optimization algorithm that combines gradient-enhanced Bayesian Optimization (BO) with gradient-based trust region local refinement through an adaptive competition mechanism. At each iteration, global and local optimization strategies independently propose candidate points, and the next evaluation is selected based on predicted improvement. LAGO separates global exploration from local refinement at the proposal level: the BO acquisition function is optimized outside the active trust region, while local function and gradient evaluations are incorporated into the global gradient-enhanced Gaussian process only when they satisfy a lengthscale-based minimum-distance criterion, reducing the risk of numerical instability during the local exploitation. This enables efficient local refinement when reaching promising regions, without sacrificing a global search of the design space. As a result, the method achieves an improved exploration of the full design space compared to standard non-linear local optimization algorithms for smooth functions, while maintaining fast local convergence in regions of interest.
- Abstract(参考訳): 本稿では,勾配強調ベイズ最適化(BO)と勾配に基づく信頼領域局所改善を適応競合機構により組み合わせたLocAl-Global OptimizationアルゴリズムであるLAGOを紹介する。
各イテレーションにおいて、グローバルとローカルの最適化戦略は独立して候補点を提案し、予測された改善に基づいて次の評価が選択される。
BO取得関数はアクティブ信頼領域の外で最適化されるのに対し、局所関数と勾配評価は、局所利用中の数値不安定性のリスクを低減し、長大ベースで最小距離の基準を満たす場合にのみグローバル勾配のガウス過程に組み込まれている。
これにより、設計空間のグローバルな探索を犠牲にすることなく、将来性のある領域に到達する際に効率的な局所的な洗練が可能になる。
その結果,スムーズな関数に対する標準的な非線形局所最適化アルゴリズムと比較して,関心領域における高速局所収束を保ちながら,完全な設計空間の探索を改良した。
関連論文リスト
- Improving LLM-based Global Optimization with Search Space Partitioning [40.61249592871905]
大規模言語モデル(LLM)は、グローバル最適化フレームワーク内で有効な代理モデルと候補ジェネレータとして登場した。
HOLLMは,探索空間を有望な部分領域に分割することでLLM駆動サンプリングを強化する,新しいグローバル最適化アルゴリズムである。
標準最適化ベンチマークの実証的な評価は、HOLLMがベイズ最適化と信頼領域法に一貫して適合するか、超越していることを示している。
論文 参考訳(メタデータ) (2025-05-27T16:01:49Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - High-dimensional Bayesian Optimization via Covariance Matrix Adaptation
Strategy [16.521207412129833]
本稿では,CMA(Covariance Matrix Adaptation)戦略を用いて局所領域を定義する手法を提案する。
この探索分布に基づいて,大域的最適である確率の高いデータポイントからなる局所領域を定義する。
提案手法は,BO,TuRBO,BAxUSなどの既存のブラックボックスBOを組み込んでグローバルな最適解を求めるメタアルゴリズムとして機能する。
論文 参考訳(メタデータ) (2024-02-05T15:32:10Z) - LABCAT: Locally adaptive Bayesian optimization using principal-component-aligned trust regions [0.0]
信頼領域に基づくBOを拡張した LABCAT アルゴリズムを提案する。
このアルゴリズムは、最先端のBOや他のブラックボックス最適化アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-19T13:56:24Z) - Efficient Federated Learning via Local Adaptive Amended Optimizer with
Linear Speedup [90.26270347459915]
そこで我々は,グローバル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アルゴリズムを提案する。
textitLADAは通信ラウンドを大幅に削減し、複数のベースラインよりも高い精度を実現する。
論文 参考訳(メタデータ) (2023-07-30T14:53:21Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - The Behavior and Convergence of Local Bayesian Optimization [20.568490114736818]
局所最適化戦略は、従来のグローバル戦略と比較して高次元問題に対して強い経験的性能をもたらすことができる。
まず,局所的なアプローチの挙動を考察し,ガウス過程のサンプルパスの個々の局所解の統計値が,グローバルな手法から得られるであろうものと比較して驚くほど良好であることを示す。
論文 参考訳(メタデータ) (2023-05-24T21:11:49Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - Escaping Saddle Points with Bias-Variance Reduced Local Perturbed SGD
for Communication Efficient Nonconvex Distributed Learning [58.79085525115987]
ローカル手法は通信時間を短縮する有望なアプローチの1つである。
局所的データセットが局所的損失の滑らかさよりも小さい場合,通信の複雑さは非局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-12T15:12:17Z) - TREGO: a Trust-Region Framework for Efficient Global Optimization [63.995130144110156]
信頼領域型EGO法(TREGO)の提案と解析を行う。
TREGOは、信頼領域内の通常のEGOステップとローカルステップを交互に使用する。
我々のアルゴリズムは、最適化ステップのサブセットのみのために、EGOから離脱しながら、強いグローバル収束特性を享受する。
論文 参考訳(メタデータ) (2021-01-18T00:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。