論文の概要: Shuffle and Joint Differential Privacy for Generalized Linear Contextual Bandits
- arxiv url: http://arxiv.org/abs/2602.00417v1
- Date: Sat, 31 Jan 2026 00:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.174252
- Title: Shuffle and Joint Differential Privacy for Generalized Linear Contextual Bandits
- Title(参考訳): 一般化線形帯域におけるシャッフルと共同微分プライバシー
- Authors: Sahasrajit Sarmasarkar,
- Abstract要約: シャッフル差分プライバシーと連立差分プライバシーに基づく一般化線形文脈帯域のアルゴリズムを提案する。
逆の文脈では、$tildeO(dsqrtT/sqrtvarepsilon)$ regret というジョイントDPアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 0.8122270502556375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first algorithms for generalized linear contextual bandits under shuffle differential privacy and joint differential privacy. While prior work on private contextual bandits has been restricted to linear reward models -- which admit closed-form estimators -- generalized linear models (GLMs) pose fundamental new challenges: no closed-form estimator exists, requiring private convex optimization; privacy must be tracked across multiple evolving design matrices; and optimization error must be explicitly incorporated into regret analysis. We address these challenges under two privacy models and context settings. For stochastic contexts, we design a shuffle-DP algorithm achieving $\tilde{O}(d^{3/2}\sqrt{T}/\sqrt{\varepsilon})$ regret. For adversarial contexts, we provide a joint-DP algorithm with $\tilde{O}(d\sqrt{T}/\sqrt{\varepsilon})$ regret -- matching the non-private rate up to a $1/\sqrt{\varepsilon}$ factor. Both algorithms remove dependence on the instance-specific parameter $κ$ (which can be exponential in dimension) from the dominant $\sqrt{T}$ term. Unlike prior work on locally private GLM bandits, our methods require no spectral assumptions on the context distribution beyond $\ell_2$ boundedness.
- Abstract(参考訳): シャッフル差分プライバシーと連立差分プライバシーに基づく一般化線形文脈帯域のアルゴリズムを提案する。
閉形式推定モデル(GLM)は基本的な新しい課題を提起する: クローズド形式推定モデルが存在しず、プライベート凸最適化を必要としない; プライバシは複数の進化する設計行列にまたがって追跡されなければならない。
2つのプライバシモデルとコンテキスト設定の下で、これらの課題に対処します。
確率的文脈に対しては, $\tilde{O}(d^{3/2}\sqrt{T}/\sqrt{\varepsilon}) を満たすシャッフルDPアルゴリズムを設計する。
逆の文脈では、$\tilde{O}(d\sqrt{T}/\sqrt{\varepsilon})$ regret -- のジョイントDPアルゴリズムを提供する。
どちらのアルゴリズムも、支配的な$\sqrt{T}$ 項から、インスタンス固有のパラメータ $κ$ への依存を除去する。
局所的な私的 GLM バンディットに関する以前の研究とは異なり、我々の手法は$\ell_2$boundedness 以上の文脈分布に関するスペクトル仮定を必要としない。
関連論文リスト
- Tight Differentially Private PCA via Matrix Coherence [12.864472925970242]
特異値分解と標準摂動機構に基づく単純で効率的なアルゴリズムが、プライベートランク-r$近似を返すことを示す。
私たちの推定器は、いくつかの体制において、芸術の状態を著しく上回ります。
我々は、同様の挙動がグラフの植込み問題を含む他の構造化モデルに対して成り立つと推測する。
論文 参考訳(メタデータ) (2025-10-30T16:47:26Z) - Differential Privacy in Kernelized Contextual Bandits via Random Projections [8.658538065693206]
コンテキストによるカーネルの帯域幅の問題について考察する。
基礎となる報酬関数は、既知の再生ケルネルヒルベルト空間に属する。
我々は、$widetildemathcalO(sqrtgamma_TT+fracgamma_Tvarepsilon_mathrmDP)の最先端の累積後悔を実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-07-18T03:54:49Z) - Beyond Covariance Matrix: The Statistical Complexity of Private Linear Regression [66.93988594607842]
プライバシー制約の下では、プライベート線形回帰の複雑さは通常の共分散行列によって捉えられる。
最適率を達成するための情報重み付け回帰手法を提案する。
特に、我々の結果は、共同プライバシーは追加費用がほとんどないことを示している。
論文 参考訳(メタデータ) (2025-02-18T18:35:24Z) - Optimized Tradeoffs for Private Prediction with Majority Ensembling [59.99331405291337]
本稿では,データ依存型ランダム化応答行列(DaRRM)アルゴリズムを提案する。
DaRRMはデータ依存ノイズ関数$gamma$でパラメータ化され、全てのプライベートアルゴリズムのクラスに対して効率的なユーティリティ最適化を可能にする。
本稿では,DARRMが共通ベースラインよりも2倍のプライバシゲインを,固定ユーティリティで確実に享受していることを示す。
論文 参考訳(メタデータ) (2024-11-27T00:48:48Z) - Efficient Frameworks for Generalized Low-Rank Matrix Bandit Problems [61.85150061213987]
一般化線形モデル (GLM) フレームワークを用いて, citelu2021low で提案した一般化低ランク行列帯域問題について検討する。
既存のアルゴリズムの計算不可能性と理論的制約を克服するため,まずG-ESTTフレームワークを提案する。
G-ESTT は $tildeO(sqrt(d_1+d_2)3/2Mr3/2T)$ bound of regret を達成でき、G-ESTS は $tildeO を達成できることを示す。
論文 参考訳(メタデータ) (2024-01-14T14:14:19Z) - Private Online Prediction from Experts: Separations and Faster Rates [74.52487417350221]
専門家によるオンライン予測は機械学習の基本的な問題であり、いくつかの研究がプライバシーの制約の下でこの問題を研究している。
本研究では,非適応的敵に対する最良な既存アルゴリズムの残差を克服する新たなアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2022-10-24T18:40:19Z) - Non-Euclidean Differentially Private Stochastic Convex Optimization [15.302167005107135]
雑音勾配降下法(SGD)アルゴリズムは低次元状態において最適過大なリスクを達成できることを示す。
私たちの作品は、規則性、均一凸性、均一な平滑性の概念など、規範空間の幾何学から概念を導き出します。
論文 参考訳(メタデータ) (2021-03-01T19:48:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。