論文の概要: Information Theoretic Bayesian Optimization over the Probability Simplex
- arxiv url: http://arxiv.org/abs/2603.09793v1
- Date: Tue, 10 Mar 2026 15:25:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.426216
- Title: Information Theoretic Bayesian Optimization over the Probability Simplex
- Title(参考訳): 確率単純性に対する情報理論ベイズ最適化
- Authors: Federico Pavesi, Antonio Candelieri, Noémie Jaquier,
- Abstract要約: $$-GaBO は確率単純性に対するベイズ最適化アルゴリズムの新たなファミリである。
本稿では,確率単純性に対するベイズ最適化アルゴリズムの新たなファミリである$-GaBOを紹介する。
- 参考スコア(独自算出の注目度): 5.737454198317998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian optimization is a data-efficient technique that has been shown to be extremely powerful to optimize expensive, black-box, and possibly noisy objective functions. Many applications involve optimizing probabilities and mixtures which naturally belong to the probability simplex, a constrained non-Euclidean domain defined by non-negative entries summing to one. This paper introduces $α$-GaBO, a novel family of Bayesian optimization algorithms over the probability simplex. Our approach is grounded in information geometry, a branch of Riemannian geometry which endows the simplex with a Riemannian metric and a class of connections. Based on information geometry theory, we construct Matérn kernels that reflect the geometry of the probability simplex, as well as a one-parameter family of geometric optimizers for the acquisition function. We validate our method on benchmark functions and on a variety of real-world applications including mixtures of components, mixtures of classifiers, and a robotic control task, showing its increased performance compared to constrained Euclidean approaches.
- Abstract(参考訳): ベイズ最適化(Bayesian optimization)は、高価でブラックボックスでノイズの多い目的関数を最適化するのに非常に強力なデータ効率の手法である。
多くの応用は確率の最適化と、非負の成分が 1 にまとめることによって定義される制約付き非ユークリッド領域である確率単純群に属する混合を含む。
本稿では,確率単純性に対するベイズ最適化アルゴリズムの新たなファミリである$α$-GaBOを紹介する。
我々のアプローチは情報幾何学(英語版)、リーマン幾何学の分岐であり、リーマン計量と接続のクラスが単純である。
情報幾何学理論に基づき、確率単純体の幾何を反映したマテランカーネルと、取得関数のための幾何最適化器の1パラメータファミリを構築する。
提案手法は, 部品の混合, 分類器の混合, ロボット制御タスクなど, 様々な実世界のアプリケーションにおいて, ユークリッドアプローチと比較して, 性能が向上していることを示す。
関連論文リスト
- Riemannian Optimization on the Oblique Manifold for Sparse Simplex Constraints via Multiplicative Updates [0.0]
スパース単純性制約による低ランク最適化問題は、非負性、疎性、一対一条件を満たさなければならない変数を含む。
本稿では,これらの問題に効率的に対処するための新しい多様体最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-31T13:31:05Z) - Beyond Regrets: Geometric Metrics for Bayesian Optimization [5.346298077607419]
我々は4つの新しい幾何学的指標、すなわち精度、リコール、平均等級、平均距離を提案する。
これらの測定により、クエリポイントとグローバルオプティマの両方の幾何を考慮したベイズ最適化アルゴリズムやクエリポイントの比較が可能となる。
論文 参考訳(メタデータ) (2024-01-03T20:59:52Z) - Warped geometric information on the optimisation of Euclidean functions [43.43598316339732]
我々は、潜在的に高次元ユークリッド空間で定義される実数値函数の最適化を考える。
函数の最適度は、曲がった計量を持つ多様体に沿う。
提案アルゴリズムは測地学の3次近似を用いており、標準ユークリッド勾配法よりも優れている傾向にある。
論文 参考訳(メタデータ) (2023-08-16T12:08:50Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - Geometry-aware Bayesian Optimization in Robotics using Riemannian
Mat\'ern Kernels [64.62221198500467]
ベイズ最適化のための幾何対応カーネルの実装方法を示す。
この技術は、ロボット工学における制御パラメータチューニング、パラメトリックポリシー適応、構造設計に利用できる。
論文 参考訳(メタデータ) (2021-11-02T09:47:22Z) - Automatic differentiation for Riemannian optimization on low-rank matrix
and tensor-train manifolds [71.94111815357064]
科学計算および機械学習アプリケーションでは、行列およびより一般的な多次元配列(テンソル)は、しばしば低ランク分解の助けを借りて近似することができる。
低ランク近似を見つけるための一般的なツールの1つはリーマン最適化を使うことである。
論文 参考訳(メタデータ) (2021-03-27T19:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。