論文の概要: Federated Recommendation System via Differential Privacy
- arxiv url: http://arxiv.org/abs/2005.06670v2
- Date: Sat, 16 May 2020 04:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 05:39:15.193193
- Title: Federated Recommendation System via Differential Privacy
- Title(参考訳): 微分プライバシーによるフェデレーション勧告システム
- Authors: Tan Li, Linqi Song and Christina Fragouli
- Abstract要約: 差分プライバシーに基づくアッパー信頼境界法(UCB)をマルチエージェント環境に適用する方法について検討する。
提案手法のプライバシと後悔性能に関する理論的解析を行った。
- 参考スコア(独自算出の注目度): 31.0963615274522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we are interested in what we term the federated private
bandits framework, that combines differential privacy with multi-agent bandit
learning. We explore how differential privacy based Upper Confidence Bound
(UCB) methods can be applied to multi-agent environments, and in particular to
federated learning environments both in `master-worker' and `fully
decentralized' settings. We provide a theoretical analysis on the privacy and
regret performance of the proposed methods and explore the tradeoffs between
these two.
- Abstract(参考訳): 本稿では,ディファレンシャルプライバシとマルチエージェントバンディット学習を組み合わせたfederated private bandits framework(federated private bandits framework)について考察する。
差分プライバシーに基づくアッパー信頼境界法(UCB)は,マルチエージェント環境,特に'マスターワーカー'と'完全に分散'された'環境において,どのように適用できるかを検討する。
提案手法のプライバシーと後悔のパフォーマンスに関する理論的分析を行い,両者のトレードオフについて考察する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - Differentially Private Federated Learning: A Systematic Review [35.13641504685795]
本稿では,様々な差分プライバシモデルとシナリオの定義と保証に基づく,差分私的フェデレーション学習の新しい分類法を提案する。
本研究は,プライバシ保護フェデレーション学習に関する貴重な知見を提供し,今後の研究に向けた実践的方向性を提案する。
論文 参考訳(メタデータ) (2024-05-14T03:49:14Z) - Federated Learning on Riemannian Manifolds with Differential Privacy [8.75592575216789]
悪意のある敵は、様々な手段を通じて機密情報を推測することができる。
本稿では,差分プライバシ(DP)技術に基づいて定義された汎用的なプライベートFLフレームワークを提案する。
我々は収束性を確立しながらプライバシー保証を分析する。
合成および実世界のデータセット上で数値シミュレーションを行い,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-04-15T12:32:20Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Differentially-Private Federated Linear Bandits [15.609414012418043]
scFedUCBは、集中型と分散化された(ピアツーピア)フェデレーションラーニングのためのマルチエージェントプライベートアルゴリズムである。
我々は、その実用性に関する厳密な技術的分析を後悔の観点から提供し、協調的盗賊学習のいくつかの結果を改善し、厳密なプライバシー保証も提供します。
論文 参考訳(メタデータ) (2020-10-22T03:58:39Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。