論文の概要: Boosting Gradient Leakage Attacks: Data Reconstruction in Realistic FL Settings
- arxiv url: http://arxiv.org/abs/2506.08435v1
- Date: Tue, 10 Jun 2025 04:17:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.461177
- Title: Boosting Gradient Leakage Attacks: Data Reconstruction in Realistic FL Settings
- Title(参考訳): グラディエント漏洩攻撃の増大:現実的FL設定におけるデータ再構成
- Authors: Mingyuan Fan, Fuyi Wang, Cen Chen, Jianying Zhou,
- Abstract要約: フェデレートラーニング(FL)は、生データを公開することなく、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLの中心にあるプライバシーを守る能力は、最近ホットボタンに関する議論のトピックとなった。
本稿では,現実的なFL環境においても,クライアントのデータを効果的に再構築できることを実証的に示す。
- 参考スコア(独自算出の注目度): 17.038652036429454
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) enables collaborative model training among multiple clients without the need to expose raw data. Its ability to safeguard privacy, at the heart of FL, has recently been a hot-button debate topic. To elaborate, several studies have introduced a type of attacks known as gradient leakage attacks (GLAs), which exploit the gradients shared during training to reconstruct clients' raw data. On the flip side, some literature, however, contends no substantial privacy risk in practical FL environments due to the effectiveness of such GLAs being limited to overly relaxed conditions, such as small batch sizes and knowledge of clients' data distributions. This paper bridges this critical gap by empirically demonstrating that clients' data can still be effectively reconstructed, even within realistic FL environments. Upon revisiting GLAs, we recognize that their performance failures stem from their inability to handle the gradient matching problem. To alleviate the performance bottlenecks identified above, we develop FedLeak, which introduces two novel techniques, partial gradient matching and gradient regularization. Moreover, to evaluate the performance of FedLeak in real-world FL environments, we formulate a practical evaluation protocol grounded in a thorough review of extensive FL literature and industry practices. Under this protocol, FedLeak can still achieve high-fidelity data reconstruction, thereby underscoring the significant vulnerability in FL systems and the urgent need for more effective defense methods.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを公開することなく、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLの中心にあるプライバシーを守る能力は、最近ホットボタンに関する議論の話題になった。
この攻撃は、訓練中に共有される勾配を利用してクライアントの生データを再構築するものである。
しかしながら、一部の文献では、GLAが小さなバッチサイズやクライアントのデータ配布に関する知識など、過度に緩和された条件に制限されているため、実用FL環境ではプライバシー上の重大なリスクはないと主張している。
本稿では,現実的なFL環境においても,クライアントのデータを効果的に再構築できることを実証的に示すことによって,この重要なギャップを埋める。
GLAを再考すると、それらの性能障害は勾配マッチング問題に対処できないことに起因すると認識する。
上記の性能ボトルネックを軽減するためにFedLeakを開発した。
さらに,実世界のFL環境におけるFedLeakの性能を評価するために,広範なFL文献と産業実践の徹底的なレビューを基礎とした実践的評価プロトコルを定式化した。
このプロトコルの下では、FedLeakは依然として高忠実なデータ再構成を達成でき、FLシステムの重大な脆弱性とより効果的な防御方法の必要性を強調できる。
関連論文リスト
- Building Gradient Bridges: Label Leakage from Restricted Gradient Sharing in Federated Learning [21.799571403101904]
グラディエントブリッジ(GDBR)は、フェデレートラーニング(FL)で共有される限られた勾配情報からトレーニングデータのラベル分布を復元する
実験の結果、GDBRは様々なFL設定で80%以上のラベルを正確に復元できることがわかった。
論文 参考訳(メタデータ) (2024-12-17T08:03:38Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Refiner: Data Refining against Gradient Leakage Attacks in Federated Learning [24.931028228974323]
グラデーションリーク攻撃は クライアントのアップロードした勾配を利用して 機密データを再構築する
本稿では,従来の勾配摂動から分離した新しい防御パラダイムについて検討する。
プライバシ保護とパフォーマンス維持のための2つのメトリクスを共同で最適化するRefinerを設計する。
論文 参考訳(メタデータ) (2022-12-05T05:36:15Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。