論文の概要: Navigating Sparsities in High-Dimensional Linear Contextual Bandits
- arxiv url: http://arxiv.org/abs/2510.08435v1
- Date: Thu, 09 Oct 2025 16:47:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.212364
- Title: Navigating Sparsities in High-Dimensional Linear Contextual Bandits
- Title(参考訳): 高次元線形帯域における空間移動
- Authors: Rui Zhao, Zihan Chen, Zemin Zheng,
- Abstract要約: 高次元線形文脈バンドイット問題は、次元の呪いのため、依然として重要な課題である。
この研究では、両方の空間を適応的にナビゲートする強力なポイントワイズ推定器が導入された。
この点に基づいて,HOPEと呼ばれる新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.796930035720785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-dimensional linear contextual bandit problems remain a significant challenge due to the curse of dimensionality. Existing methods typically consider either the model parameters to be sparse or the eigenvalues of context covariance matrices to be (approximately) sparse, lacking general applicability due to the rigidity of conventional reward estimators. To overcome this limitation, a powerful pointwise estimator is introduced in this work that adaptively navigates both kinds of sparsity. Based on this pointwise estimator, a novel algorithm, termed HOPE, is proposed. Theoretical analyses demonstrate that HOPE not only achieves improved regret bounds in previously discussed homogeneous settings (i.e., considering only one type of sparsity) but also, for the first time, efficiently handles two new challenging heterogeneous settings (i.e., considering a mixture of two types of sparsity), highlighting its flexibility and generality. Experiments corroborate the superiority of HOPE over existing methods across various scenarios.
- Abstract(参考訳): 高次元線形文脈バンドイット問題は、次元の呪いのため、依然として重要な課題である。
既存の手法では、モデルパラメータをスパースとするか、文脈共分散行列の固有値をスパースとみなすのが一般的であり、従来の報酬推定器の剛性による一般的な適用性に欠ける。
この制限を克服するために、両方の空間を適応的にナビゲートする強力なポイントワイズ推定器が導入された。
この点に基づいて,HOPEと呼ばれる新しいアルゴリズムを提案する。
理論的解析により、HOPEは前述した同種性設定(すなわち1つの種類のみを考慮する)における改善された後悔境界を達成するだけでなく、初めて2つの新しい挑戦的な異種性設定(すなわち2つの種類を混ぜて考える)を効率的に処理し、その柔軟性と一般性を強調している。
実験は、様々なシナリオで既存のメソッドよりもHOPEの方が優れていることを裏付ける。
関連論文リスト
- OrthAlign: Orthogonal Subspace Decomposition for Non-Interfering Multi-Objective Alignment [61.02595549125661]
大規模言語モデル(LLM)のアライメントは、複数の人間の好みに対処する際に重要なジレンマに直面します。
我々は、優先順位調整における勾配レベルの対立を解決する革新的なアプローチであるOrthAlignを提案する。
我々はOrthAlignが多重目的アライメント後の34.61%から50.89%の最大単一参照改善を実現していることを示す。
論文 参考訳(メタデータ) (2025-09-29T11:16:30Z) - Nonconvex Regularization for Feature Selection in Reinforcement Learning [7.408148824204063]
本研究では,理論収束保証付き強化学習(RL)における特徴選択のための効率的なバッチアルゴリズムを提案する。
数値実験により,提案手法が州選択シナリオを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2025-09-19T06:21:20Z) - Generalized Linear Bandits: Almost Optimal Regret with One-Pass Update [60.414548453838506]
非線形リンク関数を組み込んで古典線形モデルを拡張したコンテキスト型多武装バンディットフレームワークである一般化線形バンディット問題(GLB)について検討する。
GLBは現実世界のシナリオに広く適用できるが、その非線形性は計算効率と統計効率の両方を達成する上で大きな課題をもたらす。
本稿では,$mathcalO(1)$時間と1ラウンドあたりの空間複雑度をほぼ最適に再現するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-16T02:24:21Z) - Optimization over Sparse Support-Preserving Sets: Two-Step Projection with Global Optimality Guarantees [34.164821598251315]
スパース最適化では、$ell_$ pseudo-normを使ってハード制約を強制することは、制御されたスパーシリティのような利点を提供する。
多くの現実世界のアプリケーションは、余分な制約だけでなく、余分な制約も要求します。
本稿では,これらの制約をカスタマイズした2ステップのプロジェクション演算子を備えた,保存困難な反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-10T08:27:01Z) - Generalization Properties of Adversarial Training for $\ell_0$-Bounded
Adversarial Attacks [47.22918498465056]
本稿では,ニューラルネットワークの重要なクラスに対する対人訓練の性能を理論的に特徴付けることを目的とする。
この設定での一般化の導出には2つの大きな課題がある。
論文 参考訳(メタデータ) (2024-02-05T22:57:33Z) - Online Non-convex Optimization with Long-term Non-convex Constraints [7.68925638410622]
一般の長期制約最適化問題をオンライン手法で解くために,新しいFollow-the-Perturbed-Leader型アルゴリズムを提案し,解析した。
提案手法は,長期制約のある情報源同定問題に対処し,理論結果の検証を行い,既存手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-11-04T15:08:36Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Nonasymptotic theory for two-layer neural networks: Beyond the
bias-variance trade-off [10.182922771556742]
本稿では,ReLUアクティベーション機能を持つ2層ニューラルネットワークに対する漸近的一般化理論を提案する。
過度にパラメータ化されたランダムな特徴モデルは次元性の呪いに悩まされ、従って準最適であることを示す。
論文 参考訳(メタデータ) (2021-06-09T03:52:18Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。