論文の概要: Federated Recommendation System via Differential Privacy
- arxiv url: http://arxiv.org/abs/2005.06670v2
- Date: Sat, 16 May 2020 04:11:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 05:39:15.193193
- Title: Federated Recommendation System via Differential Privacy
- Title(参考訳): 微分プライバシーによるフェデレーション勧告システム
- Authors: Tan Li, Linqi Song and Christina Fragouli
- Abstract要約: 差分プライバシーに基づくアッパー信頼境界法(UCB)をマルチエージェント環境に適用する方法について検討する。
提案手法のプライバシと後悔性能に関する理論的解析を行った。
- 参考スコア(独自算出の注目度): 31.0963615274522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we are interested in what we term the federated private
bandits framework, that combines differential privacy with multi-agent bandit
learning. We explore how differential privacy based Upper Confidence Bound
(UCB) methods can be applied to multi-agent environments, and in particular to
federated learning environments both in `master-worker' and `fully
decentralized' settings. We provide a theoretical analysis on the privacy and
regret performance of the proposed methods and explore the tradeoffs between
these two.
- Abstract(参考訳): 本稿では,ディファレンシャルプライバシとマルチエージェントバンディット学習を組み合わせたfederated private bandits framework(federated private bandits framework)について考察する。
差分プライバシーに基づくアッパー信頼境界法(UCB)は,マルチエージェント環境,特に'マスターワーカー'と'完全に分散'された'環境において,どのように適用できるかを検討する。
提案手法のプライバシーと後悔のパフォーマンスに関する理論的分析を行い,両者のトレードオフについて考察する。
関連論文リスト
- Differentially Private Model-Based Offline Reinforcement Learning [51.1231068185106]
DP-MORLは差分プライバシーを保証するアルゴリズムである。
環境のプライベートモデルは、まずオフラインデータから学習される。
次に、モデルベースのポリシー最適化を使用して、プライベートモデルからポリシーを導出します。
論文 参考訳(メタデータ) (2024-02-08T10:05:11Z) - Using Decentralized Aggregation for Federated Learning with Differential
Privacy [0.32985979395737774]
フェデレートラーニング(FL)は、データをローカルノードに保持することで、ある程度のプライバシーを提供する。
本研究は、ベンチマークデータセットを用いて、差分プライバシー(DP)を用いたFL実験環境をデプロイする。
論文 参考訳(メタデータ) (2023-11-27T17:02:56Z) - BRNES: Enabling Security and Privacy-aware Experience Sharing in
Multiagent Robotic and Autonomous Systems [0.15749416770494704]
本稿では,各学習ステップにおいて,各アドバイスに対して動的隣接領域を選択する新しいMARLフレームワーク(BRNES)を提案する。
実験の結果,我々のフレームワークは,目標達成までの歩み,報奨,目標達成までの時間において,最先端のフレームワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-02T16:57:19Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Differentially-Private Federated Linear Bandits [15.609414012418043]
scFedUCBは、集中型と分散化された(ピアツーピア)フェデレーションラーニングのためのマルチエージェントプライベートアルゴリズムである。
我々は、その実用性に関する厳密な技術的分析を後悔の観点から提供し、協調的盗賊学習のいくつかの結果を改善し、厳密なプライバシー保証も提供します。
論文 参考訳(メタデータ) (2020-10-22T03:58:39Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。