論文の概要: SoK: On Gradient Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2404.05403v2
- Date: Wed, 05 Feb 2025 03:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:25:01.213043
- Title: SoK: On Gradient Leakage in Federated Learning
- Title(参考訳): SoK: フェデレートラーニングにおけるグラディエントリークについて
- Authors: Jiacheng Du, Jiahui Hu, Zhibo Wang, Peng Sun, Neil Zhenqiang Gong, Kui Ren, Chun Chen,
- Abstract要約: フェデレートラーニング(FL)は、生のデータ露出なしに複数のクライアント間で協調的なモデルトレーニングを容易にする。
近年の研究では、クライアントのプライベートトレーニングデータは、逆勾配攻撃(GIAs)として知られる脆弱性であるFLの共有勾配から再構築可能であることが示されている。
- 参考スコア(独自算出の注目度): 42.478952687176545
- License:
- Abstract: Federated learning (FL) facilitates collaborative model training among multiple clients without raw data exposure. However, recent studies have shown that clients' private training data can be reconstructed from shared gradients in FL, a vulnerability known as gradient inversion attacks (GIAs). While GIAs have demonstrated effectiveness under \emph{ideal settings and auxiliary assumptions}, their actual efficacy against \emph{practical FL systems} remains under-explored. To address this gap, we conduct a comprehensive study on GIAs in this work. We start with a survey of GIAs that establishes a timeline to trace their evolution and develops a systematization to uncover their inherent threats. By rethinking GIA in practical FL systems, three fundamental aspects influencing GIA's effectiveness are identified: \textit{training setup}, \textit{model}, and \textit{post-processing}. Guided by these aspects, we perform extensive theoretical and empirical evaluations of SOTA GIAs across diverse settings. Our findings highlight that GIA is notably \textit{constrained}, \textit{fragile}, and \textit{easily defensible}. Specifically, GIAs exhibit inherent limitations against practical local training settings. Additionally, their effectiveness is highly sensitive to the trained model, and even simple post-processing techniques applied to gradients can serve as effective defenses. Our work provides crucial insights into the limited threats of GIAs in practical FL systems. By rectifying prior misconceptions, we hope to inspire more accurate and realistic investigations on this topic.
- Abstract(参考訳): フェデレートラーニング(FL)は、生のデータ露出なしに複数のクライアント間で協調的なモデルトレーニングを容易にする。
しかし、最近の研究では、クライアントのプライベートトレーニングデータは、グラデーション・インバージョン・アタック(GIA)として知られる脆弱性であるFLの共有勾配から再構築可能であることが示されている。
GIA は 'emph{ideal settings' と '助仮定' の下で有効性を示したが、 'emph{practical FL system' に対する実際の有効性は未解明のままである。
このギャップに対処するため,本研究におけるGIAの包括的研究を行っている。
まず、その進化を辿るタイムラインを確立し、その固有の脅威を明らかにするための体系化を開発するGIAの調査から始めます。
GIAを実用FLシステムで再考することにより、GIAの有効性に影響を与える3つの基本的な側面が特定される: \textit{training setup}, \textit{model}, \textit{post-processing}。
これらの点から、我々は様々な設定でSOTA GIAの理論的および実証的な評価を行う。
GIAは特に, textit{constrained}, \textit{fragile}, \textit{easily defensible}である。
特に、GIAは、実践的なローカルトレーニング設定に対して固有の制限を示す。
さらに、それらの効果は訓練されたモデルに非常に敏感であり、グラデーションに適用した単純な後処理技術でさえ効果的な防御に役立てることができる。
我々の研究は、実用的なFLシステムにおけるGIAの限られた脅威に関する重要な洞察を提供する。
事前の誤解を是正することで、この問題についてより正確で現実的な調査を刺激したいと思っています。
関連論文リスト
- Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Symmetry-aware Neural Architecture for Embodied Visual Navigation [24.83118298491349]
実験結果から,Gibsonデータセットでトレーニングし,MP3Dデータセットでテストした場合,提案手法は面積範囲を8.1m2$増加させることがわかった。
論文 参考訳(メタデータ) (2021-12-17T14:07:23Z) - A Novel Attribute Reconstruction Attack in Federated Learning [7.426857207652392]
フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
論文 参考訳(メタデータ) (2021-08-16T05:57:01Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。