論文の概要: SoK: Gradient Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2404.05403v1
- Date: Mon, 8 Apr 2024 11:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 14:44:37.698402
- Title: SoK: Gradient Leakage in Federated Learning
- Title(参考訳): SoK: フェデレートラーニングにおけるグラディエントリーク
- Authors: Jiacheng Du, Jiahui Hu, Zhibo Wang, Peng Sun, Neil Zhenqiang Gong, Kui Ren,
- Abstract要約: フェデレートラーニング(FL)は、生のデータ露出なしに複数のクライアント間で協調的なモデルトレーニングを可能にする。
近年の研究では、クライアントのプライベートトレーニングデータをFLで共有する勾配から再構成できることが示されている。
- 参考スコア(独自算出の注目度): 42.18642727141756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative model training among multiple clients without raw data exposure. However, recent studies have shown that clients' private training data can be reconstructed from the gradients they share in FL, known as gradient inversion attacks (GIAs). While GIAs have demonstrated effectiveness under \emph{ideal settings and auxiliary assumptions}, their actual efficacy against \emph{practical FL systems} remains under-explored. To address this gap, we conduct a comprehensive study on GIAs in this work. We start with a survey of GIAs that establishes a milestone to trace their evolution and develops a systematization to uncover their inherent threats. Specifically, we categorize the auxiliary assumptions used by existing GIAs based on their practical accessibility to potential adversaries. To facilitate deeper analysis, we highlight the challenges that GIAs face in practical FL systems from three perspectives: \textit{local training}, \textit{model}, and \textit{post-processing}. We then perform extensive theoretical and empirical evaluations of state-of-the-art GIAs across diverse settings, utilizing eight datasets and thirteen models. Our findings indicate that GIAs have inherent limitations when reconstructing data under practical local training settings. Furthermore, their efficacy is sensitive to the trained model, and even simple post-processing measures applied to gradients can be effective defenses. Overall, our work provides crucial insights into the limited effectiveness of GIAs in practical FL systems. By rectifying prior misconceptions, we hope to inspire more accurate and realistic investigations on this topic.
- Abstract(参考訳): フェデレートラーニング(FL)は、生のデータ露出なしに複数のクライアント間で協調的なモデルトレーニングを可能にする。
しかし、最近の研究では、クライアントのプライベートトレーニングデータをFLで共有する勾配から再構成できることが示されている。
GIA は 'emph{ideal settings' と '助仮定' の下で有効性を示したが、 'emph{practical FL system' に対する実際の有効性は未解明のままである。
このギャップに対処するため,本研究におけるGIAの包括的研究を行っている。
まず、その進化を辿るマイルストーンを確立し、その固有の脅威を明らかにするための体系化を開発するGIAの調査から始めます。
具体的には、既存のGIAが使用した補助仮定を、潜在的な敵に対する現実的なアクセシビリティに基づいて分類する。
より深い分析を容易にするために,実用的なFLシステムにおいてGIAが直面する課題を,3つの視点から強調する: \textit{local training}, \textit{model}, \textit{post-processing}。
次に、8つのデータセットと13のモデルを用いて、さまざまな設定で最先端のGIAの広範な理論的および実証的な評価を行う。
本研究は,実地訓練環境下でのデータ再構成において,GIAに固有の限界があることを示唆するものである。
さらに、それらの効果は訓練されたモデルに敏感であり、勾配に適用した単純な後処理も効果的な防御である。
本研究は,実用FLシステムにおけるGAAの限られた有効性に関する重要な知見を提供する。
事前の誤解を是正することで、この問題についてより正確で現実的な調査を刺激したいと思っています。
関連論文リスト
- Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Symmetry-aware Neural Architecture for Embodied Visual Navigation [24.83118298491349]
実験結果から,Gibsonデータセットでトレーニングし,MP3Dデータセットでテストした場合,提案手法は面積範囲を8.1m2$増加させることがわかった。
論文 参考訳(メタデータ) (2021-12-17T14:07:23Z) - A Novel Attribute Reconstruction Attack in Federated Learning [7.426857207652392]
フェデレーテッド・ラーニング(FL)は、多数の参加者がプライベートトレーニングデータを公開することなく、共同MLモデルを構築することが可能な、有望な学習パラダイムとして登場した。
既存のFL設計では、システム内外の敵がデータプライバシーを侵害するために悪用できる脆弱性が示されている。
トレーニングデータ属性を再構築するためのcos-matchingと呼ばれる,より効率的で効率的な勾配マッチング手法を開発した。
論文 参考訳(メタデータ) (2021-08-16T05:57:01Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。