論文の概要: A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning
- arxiv url: http://arxiv.org/abs/2004.10397v2
- Date: Thu, 23 Apr 2020 04:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:49:01.708387
- Title: A Framework for Evaluating Gradient Leakage Attacks in Federated
Learning
- Title(参考訳): フェデレーション学習における勾配漏洩攻撃評価の枠組み
- Authors: Wenqi Wei, Ling Liu, Margaret Loper, Ka-Ho Chow, Mehmet Emre Gursoy,
Stacey Truex and Yanzhao Wu
- Abstract要約: Federated Learning(FL)は、クライアントのネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受けやすいことが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.134217287912008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is an emerging distributed machine learning framework
for collaborative model training with a network of clients (edge devices). FL
offers default client privacy by allowing clients to keep their sensitive data
on local devices and to only share local training parameter updates with the
federated server. However, recent studies have shown that even sharing local
parameter updates from a client to the federated server may be susceptible to
gradient leakage attacks and intrude the client privacy regarding its training
data. In this paper, we present a principled framework for evaluating and
comparing different forms of client privacy leakage attacks. We first provide
formal and experimental analysis to show how adversaries can reconstruct the
private local training data by simply analyzing the shared parameter update
from local training (e.g., local gradient or weight update vector). We then
analyze how different hyperparameter configurations in federated learning and
different settings of the attack algorithm may impact on both attack
effectiveness and attack cost. Our framework also measures, evaluates, and
analyzes the effectiveness of client privacy leakage attacks under different
gradient compression ratios when using communication efficient FL protocols.
Our experiments also include some preliminary mitigation strategies to
highlight the importance of providing a systematic attack evaluation framework
towards an in-depth understanding of the various forms of client privacy
leakage threats in federated learning and developing theoretical foundations
for attack mitigation.
- Abstract(参考訳): Federated Learning(FL)は、クライアント(エッジデバイス)のネットワークと協調的なモデルトレーニングのための、新興の分散機械学習フレームワークである。
FLは、クライアントが機密データをローカルデバイスに保持し、ローカルトレーニングパラメータのアップデートのみをフェデレーションサーバと共有できるようにすることで、デフォルトのクライアントプライバシを提供する。
しかし、最近の研究では、クライアントからフェデレーションサーバにローカルパラメータの更新を共有しても、グラデーションリーク攻撃の影響を受け、トレーニングデータに関するクライアントのプライバシーを侵害する可能性があることが示されている。
本稿では,クライアントプライバシ漏洩攻撃のさまざまな形態の評価と比較を行うための原則的枠組みを提案する。
まず,ローカルトレーニングからの共有パラメータ更新(局所勾配や重み付け更新ベクトルなど)を単純に解析することにより,敵がプライベートなローカルトレーニングデータを再構築できることを示す形式的および実験的分析を行う。
次に,連合学習におけるハイパーパラメータ構成の違いと,攻撃アルゴリズムの設定の違いが攻撃効果と攻撃コストにどのように影響するかを分析する。
また,通信効率のよいFLプロトコルを用いてクライアントのプライバシー漏洩攻撃の有効性を,異なる勾配圧縮比で測定し,評価し,解析する。
私たちの実験には、フェデレーション学習や攻撃緩和のための理論的基盤の開発において、さまざまな形のクライアントプライバシリークの脅威を深く理解するための体系的攻撃評価フレームワークを提供することの重要性を強調する予備的緩和戦略も含まれています。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Characterizing Internal Evasion Attacks in Federated Learning [12.873984200814533]
フェデレートされた学習は、クライアントが機械学習モデルを共同でトレーニングすることを可能にする。
クライアントのモデルは、トレーニングとテストフェーズにおける攻撃に対して脆弱である。
本稿では,「内部回避攻撃」を行う敵クライアントの問題に対処する。
論文 参考訳(メタデータ) (2022-09-17T21:46:38Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Byzantine-robust Federated Learning through Spatial-temporal Analysis of
Local Model Updates [6.758334200305236]
フェデレートラーニング(FL)は、複数の分散クライアント(モバイルデバイスなど)が、クライアントにローカルにトレーニングデータを保持しながら、協調的に集中的なモデルをトレーニングすることを可能にする。
本稿では,これらの障害と攻撃を空間的・時間的観点から緩和することを提案する。
具体的には、パラメータ空間におけるそれらの幾何学的性質を活用することにより、不正な更新を検出し、排除するためにクラスタリングに基づく手法を用いる。
論文 参考訳(メタデータ) (2021-07-03T18:48:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。