論文の概要: Building Gradient Bridges: Label Leakage from Restricted Gradient Sharing in Federated Learning
- arxiv url: http://arxiv.org/abs/2412.12640v1
- Date: Tue, 17 Dec 2024 08:03:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:17.157195
- Title: Building Gradient Bridges: Label Leakage from Restricted Gradient Sharing in Federated Learning
- Title(参考訳): グラディエントブリッジの構築:フェデレートラーニングにおける制限付きグラディエントシェアリングからのラベル漏洩
- Authors: Rui Zhang, Ka-Ho Chow, Ping Li,
- Abstract要約: グラディエントブリッジ(GDBR)は、フェデレートラーニング(FL)で共有される限られた勾配情報からトレーニングデータのラベル分布を復元する
実験の結果、GDBRは様々なFL設定で80%以上のラベルを正確に復元できることがわかった。
- 参考スコア(独自算出の注目度): 21.799571403101904
- License:
- Abstract: The growing concern over data privacy, the benefits of utilizing data from diverse sources for model training, and the proliferation of networked devices with enhanced computational capabilities have all contributed to the rise of federated learning (FL). The clients in FL collaborate to train a global model by uploading gradients computed on their private datasets without collecting raw data. However, a new attack surface has emerged from gradient sharing, where adversaries can restore the label distribution of a victim's private data by analyzing the obtained gradients. To mitigate this privacy leakage, existing lightweight defenses restrict the sharing of gradients, such as encrypting the final-layer gradients or locally updating the parameters within. In this paper, we introduce a novel attack called Gradient Bridge (GDBR) that recovers the label distribution of training data from the limited gradient information shared in FL. GDBR explores the relationship between the layer-wise gradients, tracks the flow of gradients, and analytically derives the batch training labels. Extensive experiments show that GDBR can accurately recover more than 80% of labels in various FL settings. GDBR highlights the inadequacy of restricted gradient sharing-based defenses and calls for the design of effective defense schemes in FL.
- Abstract(参考訳): データプライバシに対する懸念の高まり、モデルトレーニングにさまざまなソースからのデータを活用するメリット、計算能力の強化されたネットワークデバイスの普及が、すべて、フェデレーションドラーニング(FL)の台頭に寄与している。
FLのクライアントは、生データを収集することなく、プライベートデータセットで計算された勾配をアップロードすることで、グローバルモデルをトレーニングする。
しかし、新たな攻撃面が勾配共有から出現し、敵は得られた勾配を分析して被害者の個人データのラベル分布を復元することができる。
このプライバシー漏洩を軽減するために、既存の軽量ディフェンスは、最終層勾配の暗号化やパラメータのローカル更新など、勾配の共有を制限している。
本稿では、FLで共有される限られた勾配情報からトレーニングデータのラベル分布を復元するグラディエントブリッジ(GDBR)と呼ばれる新しい攻撃を提案する。
GDBRは階層的な勾配の関係を探求し、勾配の流れを追跡し、バッチトレーニングラベルを解析的に導出する。
大規模な実験により、GDBRは様々なFL設定で80%以上のラベルを正確に復元できることがわかった。
GDBRは、制限された勾配共有ベースの防御が不十分であることを強調し、FLにおける効果的な防御スキームの設計を要求する。
関連論文リスト
- CENSOR: Defense Against Gradient Inversion via Orthogonal Subspace Bayesian Sampling [63.07948989346385]
フェデレーション学習は、グローバルサーバ上でニューラルネットワークを協調的にトレーニングする。
各ローカルクライアントは、現在のグローバルモデルウェイトを受信し、そのローカルプライベートデータに基づいてパラメータ更新(グラディエント)を返送する。
既存の勾配反転攻撃は、クライアントの勾配ベクトルからプライベートトレーニングインスタンスを復元するためにこの脆弱性を利用することができる。
本稿では,大規模ニューラルネットワークモデルに適した新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2025-01-27T01:06:23Z) - Federated Learning under Attack: Improving Gradient Inversion for Batch of Images [1.5749416770494706]
フェデレートラーニング(FL)は、ユーザのデータのプライバシを保存する機械学習アプローチとして登場した。
フィードバックブレンディング(DLG-FB)を用いたグラディエンスからのディープリークは、逆勾配攻撃を改善することができる。
論文 参考訳(メタデータ) (2024-09-26T12:02:36Z) - Breaking Secure Aggregation: Label Leakage from Aggregated Gradients in Federated Learning [11.18348760596715]
Federated Learningは、勾配反転攻撃(GIA)下でのプライバシーの脆弱性を示す
セキュリティアグリゲーション(SA)を回避し、個々のクライアントのプライベートラベルを復元するために、ステルスなラベル推論攻撃を提案する。
我々の攻撃は、様々なデータセットやモデルアーキテクチャ上で、100%精度で大規模なラベル回復を実現する。
論文 参考訳(メタデータ) (2024-06-22T04:42:18Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage [9.83989883339971]
Federated Learning (FL)フレームワークは、分散学習システムにプライバシーの利点をもたらす。
近年の研究では、共有情報を通じて個人情報を漏洩させることが報告されている。
我々は,GGL(Generative Gradient Leakage)と呼ばれる新しいタイプのリーク手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:59:59Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - CAFE: Catastrophic Data Leakage in Vertical Federated Learning [65.56360219908142]
近年の研究では、分散機械学習システムにデプロイされた勾配共有機構を通じて、プライベートトレーニングデータがリークされることが示されている。
本稿では,共有集約勾配からバッチデータを効率よく回収する理論的正当性を持つ高度なデータ漏洩攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:22:58Z) - Gradient Imitation Reinforcement Learning for Low Resource Relation
Extraction [52.63803634033647]
低リソース関係抽出(LRE)は,人間のアノテーションが不足している場合に,ラベル付きコーパスから関係事実を抽出することを目的としている。
我々は、擬似ラベルデータにラベル付きデータへの勾配降下方向を模倣するように促すグラディエント・イミテーション強化学習法を開発した。
また,低リソース関係抽出における2つの主要なシナリオを扱うGradLREというフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T03:51:15Z) - Quantifying Information Leakage from Gradients [8.175697239083474]
トレーニングデータの代わりにディープニューラルネットワークの勾配を共有することで、コラボレーティブラーニングにおけるデータのプライバシが向上する可能性がある。
しかし実際には、勾配はプライベート潜在属性とオリジナルデータの両方を明らかにすることができる。
トレーニングデータ上で計算された勾配から、元の情報漏洩と潜時情報漏洩の両方を定量化するために、数学的メトリクスが必要である。
論文 参考訳(メタデータ) (2021-05-28T15:47:44Z) - User Label Leakage from Gradients in Federated Learning [12.239472997714804]
フェデレートラーニング(Federated Learning)は、複数のユーザがモデル更新(段階的)を共有することで、ジョイントモデルを構築することを可能にする。
本稿では,Gradients (LLG) のラベル漏洩を,共有勾配からユーザのトレーニングデータのラベルを抽出する新たな攻撃法を提案する。
論文 参考訳(メタデータ) (2021-05-19T19:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。