論文の概要: Thompson Sampling Itself is Differentially Private
- arxiv url: http://arxiv.org/abs/2407.14879v1
- Date: Sat, 20 Jul 2024 14:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 20:09:56.985937
- Title: Thompson Sampling Itself is Differentially Private
- Title(参考訳): Thompson Smpling Itselfは個人的ではない
- Authors: Tingting Ou, Marco Avella Medina, Rachel Cummings,
- Abstract要約: まず、マルチアームバンディットに対する古典的なトンプソンサンプリングアルゴリズムは、変更することなく、差分的にプライベートであることを示す。
次に、すべてのアームを一定回数プレプルするといった単純な修正が、より厳格なプライバシー保証を提供することを示す。
- 参考スコア(独自算出の注目度): 10.877450596327408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we first show that the classical Thompson sampling algorithm for multi-arm bandits is differentially private as-is, without any modification. We provide per-round privacy guarantees as a function of problem parameters and show composition over $T$ rounds; since the algorithm is unchanged, existing $O(\sqrt{NT\log N})$ regret bounds still hold and there is no loss in performance due to privacy. We then show that simple modifications -- such as pre-pulling all arms a fixed number of times, increasing the sampling variance -- can provide tighter privacy guarantees. We again provide privacy guarantees that now depend on the new parameters introduced in the modification, which allows the analyst to tune the privacy guarantee as desired. We also provide a novel regret analysis for this new algorithm, and show how the new parameters also impact expected regret. Finally, we empirically validate and illustrate our theoretical findings in two parameter regimes and demonstrate that tuning the new parameters substantially improve the privacy-regret tradeoff.
- Abstract(参考訳): この研究において、まず、マルチアームバンディットに対する古典的なトンプソンサンプリングアルゴリズムは、変更することなく、微分的にプライベートであることを示す。
我々は,問題パラメータの関数として全体のプライバシ保証を提供し,T$ラウンドのコンポジションを示す。アルゴリズムは変わらず,既存の$O(\sqrt{NT\log N})$ regret boundsがまだ保持されており,プライバシによるパフォーマンスの損失はない。
次に、すべてのアームを一定回数プリプルしたり、サンプリングのばらつきを増大させたりといった、単純な修正が、より厳密なプライバシー保証をもたらすことを示します。
我々はまた、修正で導入された新しいパラメータに依存するプライバシー保証を提供し、アナリストが必要に応じてプライバシー保証を調整できるようにします。
また,このアルゴリズムに対する新たな後悔分析を行い,新たなパラメータが期待された後悔にどのように影響するかを示す。
最後に,2つのパラメータ体系における理論的な知見を実証的に検証し,新しいパラメータの調整がプライバシーとプライバシーのトレードオフを大幅に改善することを示す。
関連論文リスト
- On the Complexity of Differentially Private Best-Arm Identification with
Fixed Confidence [16.295693624977563]
我々は、$epsilon$-global Differential Privacyの下で、信頼度を固定したベストアーム識別の問題について検討する。
われわれの限界は、プライバシー予算によって2つのプライバシー体制が存在することを示唆している。
我々はトップ2アルゴリズムの$epsilon$-global DP変種であるAdaP-TTを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:07:25Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Differentially Private Online Item Pricing [1.7404865362620803]
本稿では,商品選択と入札という,購入者の入力ペアに対する差分プライバシを提供する小説を紹介する。
当社のアルゴリズムは、プライバシ保証付きサブリニアの$O(sqrtTlogT)を初めて提供する。
論文 参考訳(メタデータ) (2023-05-19T00:50:50Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - Improved Regret for Differentially Private Exploration in Linear MDP [31.567811502343552]
医療記録などのセンシティブなデータに依存する環境におけるシーケンシャルな意思決定におけるプライバシ保護探索について検討する。
我々は、エピソード数に対して$O(sqrtK)$を最適に依存した、改善された後悔率を持つプライベートアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-02T21:32:09Z) - Hiding Among the Clones: A Simple and Nearly Optimal Analysis of Privacy
Amplification by Shuffling [49.43288037509783]
ランダムシャッフルは、局所的ランダム化データの差分プライバシー保証を増幅する。
私たちの結果は、以前の作業よりも単純で、ほぼ同じ保証で差分プライバシーに拡張された新しいアプローチに基づいています。
論文 参考訳(メタデータ) (2020-12-23T17:07:26Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。