論文の概要: Counterfactual Credit Guided Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2510.04676v1
- Date: Mon, 06 Oct 2025 10:34:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.807177
- Title: Counterfactual Credit Guided Bayesian Optimization
- Title(参考訳): カウンターファクトクレジットガイドベイズ最適化
- Authors: Qiyu Wei, Haowei Wang, Richard Allmendinger, Mauricio A. Álvarez,
- Abstract要約: CCGBO(Counterfactual Credit Guided Bayesian Optimization)を紹介する。
CCGBOは、個々の歴史的観察の貢献を、対実的信用を通じて明確に定量化する。
我々はCCGBOが相変わらず単純な後悔を減らし、グローバルな最適度への収束を加速させることを証明した。
- 参考スコア(独自算出の注目度): 10.457185142015442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimization has emerged as a prominent methodology for optimizing expensive black-box functions by leveraging Gaussian process surrogates, which focus on capturing the global characteristics of the objective function. However, in numerous practical scenarios, the primary objective is not to construct an exhaustive global surrogate, but rather to quickly pinpoint the global optimum. Due to the aleatoric nature of the sequential optimization problem and its dependence on the quality of the surrogate model and the initial design, it is restrictive to assume that all observed samples contribute equally to the discovery of the optimum in this context. In this paper, we introduce Counterfactual Credit Guided Bayesian Optimization (CCGBO), a novel framework that explicitly quantifies the contribution of individual historical observations through counterfactual credit. By incorporating counterfactual credit into the acquisition function, our approach can selectively allocate resources in areas where optimal solutions are most likely to occur. We prove that CCGBO retains sublinear regret. Empirical evaluations on various synthetic and real-world benchmarks demonstrate that CCGBO consistently reduces simple regret and accelerates convergence to the global optimum.
- Abstract(参考訳): ベイズ最適化はガウス過程サロゲートを利用して高価なブラックボックス関数を最適化するための顕著な方法論として現れており、これは目的関数のグローバルな特性を捉えることに重点を置いている。
しかし、多くの実践シナリオにおいて、主な目的は、徹底的なグローバルサロゲートを構築するのではなく、グローバルな最適点を素早く特定することである。
逐次最適化問題のアレラトリックな性質と、サロゲートモデルの品質と初期設計に依存しているため、観測された全てのサンプルがこの文脈における最適解の発見に等しく寄与していると仮定することは困難である。
本稿では, 対物クレジットによる個人的歴史的観察の貢献を明確化する新しい枠組みである, 対物クレジットガイドベイズ最適化(CCGBO)を紹介する。
買収関数に対物信用を組み込むことで、最適解が最も起こりそうな領域に資源を選択的に割り当てることができる。
我々はCCGBOがサブリニア後悔を保っていることを証明した。
様々な総合的および実世界のベンチマークに関する実証的な評価は、CCGBOが相変わらず単純な後悔を減らし、世界的最適度への収束を加速することを示している。
関連論文リスト
- Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - A General Framework for User-Guided Bayesian Optimization [51.96352579696041]
コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
論文 参考訳(メタデータ) (2023-11-24T18:27:26Z) - Pseudo-Bayesian Optimization [7.556071491014536]
ブラックボックス最適化の収束を保証するために最小限の要件を課す公理的枠組みについて検討する。
我々は、単純な局所回帰と、不確実性を定量化するために適切な「ランダム化事前」構造を用いることが、収束を保証するだけでなく、常に最先端のベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-15T07:55:28Z) - Deterministic Langevin Unconstrained Optimization with Normalizing Flows [3.988614978933934]
我々は,Fokker-Planck方程式とLangevin方程式にインスパイアされたブラックボックス関数に対するグローバルで自由な代理最適化戦略を導入する。
本研究は,標準合成試験関数の最適目的に向けての競争力の向上を実証する。
論文 参考訳(メタデータ) (2023-10-01T17:46:20Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - AGGLIO: Global Optimization for Locally Convex Functions [5.221860952360943]
本稿では,AGG(Accelerated Optimization Generalized LInear-model)をステージワイドでグローバルな手法として提案する。
AGGは、A-バッチSGD更新としてポイントを用いて容易に実装でき、証明可能な収束と収束実験を提供する。
論文 参考訳(メタデータ) (2021-11-06T18:15:56Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。