論文の概要: Hear No Evil: Detecting Gradient Leakage by Malicious Servers in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.20651v1
- Date: Wed, 25 Jun 2025 17:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.891186
- Title: Hear No Evil: Detecting Gradient Leakage by Malicious Servers in Federated Learning
- Title(参考訳): 聴覚の悪:フェデレーション学習における悪意のあるサーバによるグラディエント漏洩の検出
- Authors: Fei Wang, Baochun Li,
- Abstract要約: フェデレーション学習の勾配更新は、クライアントのローカルデータに関する機密情報を意図せずに明らかにすることができる。
本稿では,悪質な勾配漏洩攻撃の包括的解析と,それらを可能にするモデル操作技術について述べる。
本稿では,ローカルトレーニング開始前に不審なモデル更新を通知する,シンプルで軽量で広く適用可能なクライアント側検出機構を提案する。
- 参考スコア(独自算出の注目度): 35.64232606410778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that gradient updates in federated learning (FL) can unintentionally reveal sensitive information about a client's local data. This risk becomes significantly greater when a malicious server manipulates the global model to provoke information-rich updates from clients. In this paper, we adopt a defender's perspective to provide the first comprehensive analysis of malicious gradient leakage attacks and the model manipulation techniques that enable them. Our investigation reveals a core trade-off: these attacks cannot be both highly effective in reconstructing private data and sufficiently stealthy to evade detection -- especially in realistic FL settings that incorporate common normalization techniques and federated averaging. Building on this insight, we argue that malicious gradient leakage attacks, while theoretically concerning, are inherently limited in practice and often detectable through basic monitoring. As a complementary contribution, we propose a simple, lightweight, and broadly applicable client-side detection mechanism that flags suspicious model updates before local training begins, despite the fact that such detection may not be strictly necessary in realistic FL settings. This mechanism further underscores the feasibility of defending against these attacks with minimal overhead, offering a deployable safeguard for privacy-conscious federated learning systems.
- Abstract(参考訳): 最近の研究によると、フェデレート学習(FL)の勾配更新は、クライアントのローカルデータに関する機密情報を意図せずに明らかにすることができる。
このリスクは、悪意のあるサーバがグローバルモデルを操作して、クライアントからの情報豊富な更新を引き起こすと、大幅に大きくなる。
本稿では,悪意のある勾配漏洩攻撃の包括的解析と,それらを可能にするモデル操作技術を提供するために,ディフェンダーの視点を採用する。
これらの攻撃は、プライベートデータを再構築する上で非常に効果的であり、検出を回避するのに十分なステルス性を持ちません -- 特に一般的な正規化技術とフェデレート平均化を取り入れた現実的なFL設定において。
この知見に基づいて、我々は、悪質な勾配漏洩攻撃は理論上は問題だが、本質的には限定的であり、基本的な監視によって検出されることが多いと論じる。
本稿では,局所学習開始前に不審なモデル更新をフラグする,シンプルで軽量で広範囲に適用可能なクライアント側検出機構を提案する。
このメカニズムは、これらの攻撃を最小限のオーバーヘッドで防御する可能性をさらに強調し、プライバシを意識したフェデレーション学習システムのデプロイ可能なセーフガードを提供する。
関連論文リスト
- Byzantine Outside, Curious Inside: Reconstructing Data Through Malicious Updates [36.2911560725828]
フェデレートラーニング(FL)は、生データを共有せずに分散機械学習を可能にする。
一般に採用されているFLプロトコルでは、プライバシリークが可能である。
FLに新たな脅威モデルを導入し、悪意ある好奇心をそそるクライアントと名づけた。
論文 参考訳(メタデータ) (2025-06-13T02:23:41Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - Toward Malicious Clients Detection in Federated Learning [24.72033419379761]
フェデレートラーニング(FL)は、複数のクライアントが生データを共有せずに、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,FL内の悪意のあるクライアントを正確に識別する新しいアルゴリズムであるSafeFLを提案する。
論文 参考訳(メタデータ) (2025-05-14T03:36:36Z) - Kick Bad Guys Out! Conditionally Activated Anomaly Detection in Federated Learning with Zero-Knowledge Proof Verification [22.078088272837068]
フェデレートラーニング(FL)システムは、モデル中毒やバックドア攻撃などの敵攻撃に対して脆弱である。
本研究では,実用FLシナリオに特化して設計された新しい異常検出手法を提案する。
本手法では,2段階の条件付き検出機構を用いる。
論文 参考訳(メタデータ) (2023-10-06T07:09:05Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。