論文の概要: Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model
- arxiv url: http://arxiv.org/abs/2304.05516v2
- Date: Fri, 26 May 2023 16:04:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 20:11:35.710622
- Title: Echo of Neighbors: Privacy Amplification for Personalized Private
Federated Learning with Shuffle Model
- Title(参考訳): echo of neighbors: シャッフルモデルによる個人学習のためのプライバシー強化
- Authors: Yixuan Liu, Suyun Zhao, Li Xiong, Yuhan Liu, Hong Chen
- Abstract要約: 協調トレーニングの一般的なパラダイムであるフェデレートラーニングは、プライバシ攻撃に弱い。
この作業は、シャッフルモデルのプライバシー増幅効果を活用することで、パーソナライズされたローカルプライバシの下でのモデルプライバシを強化するために構築される。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響は、初めて考慮される。
- 参考スコア(独自算出の注目度): 21.077469463027306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning, as a popular paradigm for collaborative training, is
vulnerable against privacy attacks. Different privacy levels regarding users'
attitudes need to be satisfied locally, while a strict privacy guarantee for
the global model is also required centrally. Personalized Local Differential
Privacy (PLDP) is suitable for preserving users' varying local privacy, yet
only provides a central privacy guarantee equivalent to the worst-case local
privacy level. Thus, achieving strong central privacy as well as personalized
local privacy with a utility-promising model is a challenging problem. In this
work, a general framework (APES) is built up to strengthen model privacy under
personalized local privacy by leveraging the privacy amplification effect of
the shuffle model. To tighten the privacy bound, we quantify the heterogeneous
contributions to the central privacy user by user. The contributions are
characterized by the ability of generating "echos" from the perturbation of
each user, which is carefully measured by proposed methods Neighbor Divergence
and Clip-Laplace Mechanism. Furthermore, we propose a refined framework
(S-APES) with the post-sparsification technique to reduce privacy loss in
high-dimension scenarios. To the best of our knowledge, the impact of shuffling
on personalized local privacy is considered for the first time. We provide a
strong privacy amplification effect, and the bound is tighter than the baseline
result based on existing methods for uniform local privacy. Experiments
demonstrate that our frameworks ensure comparable or higher accuracy for the
global model.
- Abstract(参考訳): 協調トレーニングの一般的なパラダイムであるフェデレーション学習は、プライバシ攻撃に対して脆弱である。
ユーザの態度に関するプライバシレベルはローカルで満足する必要があるが、グローバルモデルに対する厳格なプライバシ保証も一元的に必要だ。
パーソナライズされたローカルディファレンシャルプライバシ(pldp)は、ユーザのさまざまなローカルプライバシを維持するのに適しているが、最悪のローカルプライバシレベルに相当する中央のプライバシ保証のみを提供する。
したがって、強力な集中型プライバシと、ユーティリティプロミージングモデルによるパーソナライズされたローカルプライバシを実現することは、難しい問題である。
本研究では,シャッフルモデルのプライバシー増幅効果を利用して,パーソナライズされたローカルプライバシの下でのモデルプライバシを強化する汎用フレームワーク(apes)を構築した。
プライバシバウンダリを締めくくるために,中央のプライバシユーザに対するユーザによる異種貢献度を定量化する。
このコントリビューションは,各ユーザの摂動から"エチョス"を生成する能力によって特徴づけられ,提案手法であるNorbor DivergenceとClip-Laplace Mechanismによって慎重に測定される。
さらに,高次元シナリオにおけるプライバシ損失を低減するために,分離後の手法を用いた改良フレームワーク(s-apes)を提案する。
私たちの知る限りでは、シャッフルがパーソナライズされたローカルプライバシに与える影響が初めて考慮される。
我々は、プライバシーの強化効果が強く、その境界は、ローカルプライバシを統一する既存の方法に基づくベースライン結果よりも厳密である。
実験により、我々のフレームワークがグローバルモデルに匹敵する、あるいは高い精度を保証することが示された。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Network Shuffling: Privacy Amplification via Random Walks [21.685747588753514]
ネットワーク/グラフ上でランダムウォーク方式でデータを交換する分散メカニズムであるネットワークシャッフルを導入する。
プライバシーの増幅率は、均一シャッフルのような他のプライバシーの増幅手法と類似していることが示される。
論文 参考訳(メタデータ) (2022-04-08T08:36:06Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。