論文の概要: Shuffle Private Linear Contextual Bandits
- arxiv url: http://arxiv.org/abs/2202.05567v1
- Date: Fri, 11 Feb 2022 11:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 00:33:36.594436
- Title: Shuffle Private Linear Contextual Bandits
- Title(参考訳): シャッフル・リニア・コンテクスト・バンディット
- Authors: Sayak Ray Chowdhury and Xingyu Zhou
- Abstract要約: シャッフル・アルゴリズム・トラスト・モデルに基づく線形文脈帯域の一般的な枠組みを提案する。
両方のインスタンス化が、ローカルモデルの精度を大幅に向上させる、後悔の保証につながることを証明します。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
- 参考スコア(独自算出の注目度): 9.51828574518325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) has been recently introduced to linear contextual
bandits to formally address the privacy concerns in its associated personalized
services to participating users (e.g., recommendations). Prior work largely
focus on two trust models of DP: the central model, where a central server is
responsible for protecting users sensitive data, and the (stronger) local
model, where information needs to be protected directly on user side. However,
there remains a fundamental gap in the utility achieved by learning algorithms
under these two privacy models, e.g., $\tilde{O}(\sqrt{T})$ regret in the
central model as compared to $\tilde{O}(T^{3/4})$ regret in the local model, if
all users are unique within a learning horizon $T$. In this work, we aim to
achieve a stronger model of trust than the central model, while suffering a
smaller regret than the local model by considering recently popular shuffle
model of privacy. We propose a general algorithmic framework for linear
contextual bandits under the shuffle trust model, where there exists a trusted
shuffler in between users and the central server, that randomly permutes a
batch of users data before sending those to the server. We then instantiate
this framework with two specific shuffle protocols: one relying on privacy
amplification of local mechanisms, and another incorporating a protocol for
summing vectors and matrices of bounded norms. We prove that both these
instantiations lead to regret guarantees that significantly improve on that of
the local model, and can potentially be of the order $\tilde{O}(T^{3/5})$ if
all users are unique. We also verify this regret behavior with simulations on
synthetic data. Finally, under the practical scenario of non-unique users, we
show that the regret of our shuffle private algorithm scale as
$\tilde{O}(T^{2/3})$, which matches that the central model could achieve in
this case.
- Abstract(参考訳): 微分プライバシ(DP)は、最近、関連するパーソナライズされたサービスのプライバシーに関する懸念を、参加ユーザ(例えばレコメンデーション)に正式に対処するために、線形コンテキストのバンドイットに導入された。
これまでは主にDPの2つの信頼モデルに焦点を当てていた。中央サーバがユーザーの機密データを保護している中央モデルと、情報を直接ユーザー側で保護する必要がある(強烈な)ローカルモデルだ。
しかし、これらの2つのプライバシモデルの下でアルゴリズムを学習することによって実現されるユーティリティには根本的なギャップが残っている。例えば、中央モデルでは$\tilde{o}(\sqrt{t})$ regret であり、ローカルモデルでは$\tilde{o}(t^{3/4})$ regret である。
本研究は,最近普及しているシャッフル・プライバシ・モデルを考慮することで,地方モデルよりも小さな後悔を被りながら,中央モデルよりも強力な信頼モデルを実現することを目的とする。
シャッフル信頼モデルでは,ユーザと中央サーバの間に信頼されたシャッフルが存在するため,サーバに送信する前にユーザデータのバッチをランダムに置換する,線形コンテキストバンディットのための一般的なアルゴリズムフレームワークを提案する。
次に、このフレームワークを2つの特定のシャッフルプロトコルでインスタンス化します。1つはローカルメカニズムのプライバシーの増幅、もう1つは有界ノルムのベクトルと行列を和めるプロトコルを組み込んだものです。
これらのインスタンス化の両方が、ローカルモデルのインスタンスを著しく改善した後悔の保証をもたらすことを証明し、すべてのユーザがユニークであるなら$\tilde{o}(t^{3/5})$となる可能性がある。
また, 合成データのシミュレーションにより, この後悔行動を検証する。
最後に、非一般ユーザの現実的なシナリオ下では、シャッフルプライベートアルゴリズムの後悔は$\tilde{O}(T^{2/3})$とスケールし、この場合、中心モデルが達成できるものと一致することを示す。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - A Generalized Shuffle Framework for Privacy Amplification: Strengthening Privacy Guarantees and Enhancing Utility [4.7712438974100255]
パーソナライズされたプライバシパラメータで$(epsilon_i,delta_i)$-PLDP設定をシャッフルする方法を示す。
shuffled $(epsilon_i,delta_i)$-PLDP process approximately saves $mu$-Gaussian Differential Privacy with mu = sqrtfrac2sum_i=1n frac1-delta_i1+eepsilon_i-max_ifrac1-delta_i1+e
論文 参考訳(メタデータ) (2023-12-22T02:31:46Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Differentially Private Aggregation via Imperfect Shuffling [64.19885806149958]
本稿では,メッセージがほぼ均一にシャッフルされる不完全なシャッフル差分プライバシモデルを導入し,キュレーターによるプライベートアグリゲーションの検証を行った。
驚くべきことに、不完全なシャッフルモデルには追加のエラーオーバーヘッドは必要ない。
論文 参考訳(メタデータ) (2023-08-28T17:34:52Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Distributed Differential Privacy in Multi-Armed Bandits [9.51828574518325]
差分プライバシ(DP)の分散信頼モデルの下では、標準の$K$武器の盗賊問題を考える。
我々は、分散信頼モデルの下では純粋なDP保証を得ると同時に、中央信頼モデルよりも後悔を犠牲にすることを目指している。
論文 参考訳(メタデータ) (2022-06-12T15:37:36Z) - Tight Differential Privacy Guarantees for the Shuffle Model with $k$-Randomized Response [6.260747047974035]
ほとんどの差分プライベート(DP)アルゴリズムは、サードパーティがデータセットやユーザがローカルにデータを摂動するローカルモデル上で作成したクエリにノイズを挿入することを前提としている。
最近提案されたシャッフルモデルは、中央パラダイムと局所パラダイムの中間フレームワークである。
合成データと実データの両方を用いて、シャッフルモデルのプライバシーユーティリティトレードオフと、民営化された中央データの比較実験を行う。
論文 参考訳(メタデータ) (2022-05-18T10:44:28Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - The Limits of Pan Privacy and Shuffle Privacy for Learning and
Estimation [3.2942333712377083]
種々の高次元学習および推定問題に対して,シャッフルモデルとパンプライベートモデルでは,中央モデルと比較してサンプルの複雑さが指数関数的に高くなることを示す。
我々の研究は、パンプライベートモデルと一般的なマルチメッセージシャッフルモデルの両方に対して、これらの問題に対する最初の非自明な下界を与える。
論文 参考訳(メタデータ) (2020-09-17T01:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。