論文の概要: Consequences of Kernel Regularity for Bandit Optimization
- arxiv url: http://arxiv.org/abs/2512.05957v1
- Date: Fri, 05 Dec 2025 18:54:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.147321
- Title: Consequences of Kernel Regularity for Bandit Optimization
- Title(参考訳): 帯域最適化におけるカーネル規則性の影響
- Authors: Madison Lee, Tara Javidi,
- Abstract要約: カーネルベースおよび局所適応型アルゴリズムは統合されたフレームワーク内で解析可能であることを示す。
これにより、各カーネルファミリに対して明確な後悔境界を導出し、いくつかのケースで新しい結果を得ることができ、他のケースに対して改善された分析を行うことができる。
- 参考スコア(独自算出の注目度): 4.655159257282135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we investigate the relationship between kernel regularity and algorithmic performance in the bandit optimization of RKHS functions. While reproducing kernel Hilbert space (RKHS) methods traditionally rely on global kernel regressors, it is also common to use a smoothness-based approach that exploits local approximations. We show that these perspectives are deeply connected through the spectral properties of isotropic kernels. In particular, we characterize the Fourier spectra of the Matérn, square-exponential, rational-quadratic, $γ$-exponential, piecewise-polynomial, and Dirichlet kernels, and show that the decay rate determines asymptotic regret from both viewpoints. For kernelized bandit algorithms, spectral decay yields upper bounds on the maximum information gain, governing worst-case regret, while for smoothness-based methods, the same decay rates establish Hölder space embeddings and Besov space norm-equivalences, enabling local continuity analysis. These connections show that kernel-based and locally adaptive algorithms can be analyzed within a unified framework. This allows us to derive explicit regret bounds for each kernel family, obtaining novel results in several cases and providing improved analysis for others. Furthermore, we analyze LP-GP-UCB, an algorithm that combines both approaches, augmenting global Gaussian process surrogates with local polynomial estimators. While the hybrid approach does not uniformly dominate specialized methods, it achieves order-optimality across multiple kernel families.
- Abstract(参考訳): 本研究では,RKHS関数の帯域最適化におけるカーネル正則性とアルゴリズム性能の関係について検討する。
カーネルヒルベルト空間(RKHS)を再現する手法は伝統的にグローバルカーネル回帰器に依存しているが、局所近似を利用する滑らかなアプローチを用いるのが一般的である。
これらの視点は等方性核のスペクトル特性を通して深く結びついていることが示される。
特に、行列、平方指数、有理四重項、$γ$指数、ピースワイズポリノミカルおよびディリクレ核のフーリエスペクトルを特徴づけ、崩壊率が両視点から漸近的後悔を決定することを示す。
核化バンドイットアルゴリズムでは、スペクトル崩壊は最大情報ゲインの上限となり、最悪のケースの後悔を治め、滑らか性に基づく手法では、同じ崩壊率でヘルダー空間の埋め込みとベソフ空間のノルム等価性を確立し、局所連続性解析を可能にする。
これらの接続は、カーネルベースおよび局所適応アルゴリズムが統一されたフレームワーク内で解析可能であることを示している。
これにより、各カーネルファミリに対して明確な後悔境界を導出し、いくつかのケースで新しい結果を得ることができ、他のケースに対して改善された分析を行うことができる。
さらに,両手法を組み合わせたアルゴリズムであるLP-GP-UCBを解析し,グローバルガウス過程を局所多項式推定器に拡張する。
ハイブリッドアプローチは特殊メソッドを均一に支配するわけではないが、複数のカーネルファミリー間で順序最適化を実現する。
関連論文リスト
- Random feature approximation for general spectral methods [2.9388890036358104]
この研究は、Tikhonov正則化の以前の結果をスペクトル正則化技術の幅広いクラスに拡張した。
我々は,ニューラルタンジェントカーネル(NTK)アプローチのレンズを用いて,ニューラルネットワークとニューラル演算子の理論的解析を可能にする。
論文 参考訳(メタデータ) (2025-06-19T13:00:17Z) - Generalization Bound of Gradient Flow through Training Trajectory and Data-dependent Kernel [55.82768375605861]
我々は、カーネル法における古典的ラデマッハ複雑性と整合する勾配流の一般化を確立する。
NTKのような静的カーネルとは異なり、LPKはトレーニング軌跡全体をキャプチャし、データと最適化の両方に適応する。
論文 参考訳(メタデータ) (2025-06-12T23:17:09Z) - Mirror Descent on Reproducing Kernel Banach Spaces [12.716091600034543]
本稿では,再生カーネルを用いたバナッハ空間の学習問題に対処する。
再生カーネルを用いてバナッハ空間の双対空間における勾配ステップを利用するアルゴリズムを提案する。
実際にこのアルゴリズムをインスタンス化するために、$p$-normのRKBSの新しいファミリーを導入する。
論文 参考訳(メタデータ) (2024-11-18T02:18:32Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Random feature approximation for general spectral methods [0.0]
スペクトル正規化法とランダムな特徴を組み合わせた多種多様なスペクトル正規化手法の一般化特性を解析する。
推定器は勾配正則性クラスよりも最適な学習率が得られる。
論文 参考訳(メタデータ) (2023-08-29T16:56:03Z) - On the Sublinear Regret of GP-UCB [58.25014663727544]
ガウス過程上信頼境界 (GP-UCB) アルゴリズムは, ほぼ最適の後悔率を有することを示す。
私たちの改善は、基盤となるカーネルの滑らかさに比例してカーネルリッジ推定を正規化するという、重要な技術的貢献に依存しています。
論文 参考訳(メタデータ) (2023-07-14T13:56:11Z) - Nonconvex Stochastic Scaled-Gradient Descent and Generalized Eigenvector
Problems [98.34292831923335]
オンライン相関解析の問題から,emphStochastic Scaled-Gradient Descent (SSD)アルゴリズムを提案する。
我々はこれらのアイデアをオンライン相関解析に適用し、局所収束率を正規性に比例した最適な1時間スケールのアルゴリズムを初めて導いた。
論文 参考訳(メタデータ) (2021-12-29T18:46:52Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Towards a Unified Quadrature Framework for Large-Scale Kernel Machines [35.32894170512829]
数値積分表現を用いて,大規模カーネルマシンのための二次的フレームワークを開発する。
完全対称補間規則を利用して、カーネル近似のための二次ノードと関連する重みを効率的に計算する。
論文 参考訳(メタデータ) (2020-11-03T12:48:07Z) - Multi-Scale Zero-Order Optimization of Smooth Functions in an RKHS [19.252319300590653]
ブラックボックス関数 $f:mathcalX mapto mathbbR$ は、$f$がよりスムーズで、与えられたカーネル $K$ に関連する RKHS の有界ノルムを持つという仮定の下で最適化される。
本稿では,H の局所多項式 (LP) 推定器を用いて通常の GP 代理モデルを拡張した新しいアルゴリズム (textttLP-GP-UCB) を提案する。
論文 参考訳(メタデータ) (2020-05-11T01:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。