論文の概要: SpooFL: Spoofing Federated Learning
- arxiv url: http://arxiv.org/abs/2601.15055v1
- Date: Wed, 21 Jan 2026 14:57:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.407228
- Title: SpooFL: Spoofing Federated Learning
- Title(参考訳): SpooFL: フェデレーションラーニング
- Authors: Isaac Baglin, Xiatian Zhu, Simon Hadfield,
- Abstract要約: 我々は、攻撃者が真の訓練データを回復したと信じ込ませるスプーフィングベースの防御を導入する。
クラスやディストリビューションをプライベートデータと共有する以前の合成データディフェンスとは異なり、SFLは外部データセットでトレーニングされた最先端の生成モデルを使用する。
その結果、攻撃者はプラウチブルで完全に無関係なサンプルを回収し、有意義なデータ漏洩を防ぐことに誤解される。
- 参考スコア(独自算出の注目度): 54.05993847488204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional defenses against Deep Leakage (DL) attacks in Federated Learning (FL) primarily focus on obfuscation, introducing noise, transformations or encryption to degrade an attacker's ability to reconstruct private data. While effective to some extent, these methods often still leak high-level information such as class distributions or feature representations, and are frequently broken by increasingly powerful denoising attacks. We propose a fundamentally different perspective on FL defense: framing it as a spoofing problem.We introduce SpooFL (Figure 1), a spoofing-based defense that deceives attackers into believing they have recovered the true training data, while actually providing convincing but entirely synthetic samples from an unrelated task. Unlike prior synthetic-data defenses that share classes or distributions with the private data and thus still leak semantic information, SpooFL uses a state-of-the-art generative model trained on an external dataset with no class overlap. As a result, attackers are misled into recovering plausible yet completely irrelevant samples, preventing meaningful data leakage while preserving FL training integrity. We implement the first example of such a spoofing defense, and evaluate our method against state-of-the-art DL defenses and demonstrate that it successfully misdirects attackers without compromising model performance significantly.
- Abstract(参考訳): フェデレートラーニング(FL)におけるDeep Leakage(DL)攻撃に対する従来の防御は、主に難読化に焦点を当て、ノイズ、変換、暗号化を導入し、攻撃者がプライベートデータを再構築する能力を低下させる。
ある程度効果はあるものの、これらの手法はクラス分布や特徴表現などの高レベルな情報をリークすることが多く、ますます強力なデノナイジング攻撃によってしばしば破壊される。
本研究では,スプーフィングをスプーフィング問題として捉えること,スプーフィング・ベース・ディフェンスであるスプーフィング(第1図)を導入し,攻撃者が真のトレーニングデータを回収したと信じ込ませる一方で,非関係なタスクから完全に合成されたサンプルを実際に提供した。
クラスやディストリビューションをプライベートデータと共有し、セマンティック情報をリークする以前の合成データディフェンスとは異なり、SpooFLはクラス重複のない外部データセットでトレーニングされた最先端の生成モデルを使用している。
その結果、攻撃者は、FLトレーニングの整合性を保ちながら有意義なデータ漏洩を防止し、プラルーシブルで完全に無関係なサンプルの回収に失敗する。
このようなスプーフィングディフェンスの最初の例を実装し、我々の手法を最先端のDLディフェンスに対して評価し、モデル性能を著しく損なうことなく攻撃者を誤って誘導できることを実証した。
関連論文リスト
- DarkFed: A Data-Free Backdoor Attack in Federated Learning [12.598402035474718]
フェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいことが示されている。
シャドウデータセットを用いたバックドアFLに対するデータフリーアプローチを提案する。
私たちの調査では、シャドウデータセットとメインタスクデータセットの間に大きなギャップがある場合でも、印象的なアタックパフォーマンスを実現することが可能であることを明らかにしています。
論文 参考訳(メタデータ) (2024-05-06T09:21:15Z) - Leak and Learn: An Attacker's Cookbook to Train Using Leaked Data from Federated Learning [4.533760678036969]
フェデレートラーニング(Federated Learning)は、クライアントデータのプライバシを保護するために導入された分散学習パラダイムである。
以前の研究によると、攻撃者はクライアントのアップデートだけを使用してプライベートなトレーニングデータを再構築できる。
我々は、トレーニングレンズによるデータ再構成攻撃を調査し、漏洩したデータを用いてモデルを改善する。
論文 参考訳(メタデータ) (2024-03-26T23:05:24Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - When the Curious Abandon Honesty: Federated Learning Is Not Private [36.95590214441999]
フェデレーション・ラーニング(FL)では、データは機械学習モデルを共同で訓練しているときに個人デバイスを離れない。
我々は、アクティブで不正直な中央組織が受信した勾配からユーザデータを効率的に抽出できる新しいデータ再構成攻撃を示す。
論文 参考訳(メタデータ) (2021-12-06T10:37:03Z) - Provable Defense against Privacy Leakage in Federated Learning from
Representation Perspective [47.23145404191034]
Federated Learning(FL)は、プライベートデータを明示的に共有しないことでプライバシーリスクを低減できる人気の分散学習フレームワークです。
近年の研究では、モデル更新の共有がflを推論攻撃に対して脆弱にすることを示した。
我々は,勾配からのデータ表現漏洩がflにおけるプライバシー漏洩の本質的原因であることを示す。
論文 参考訳(メタデータ) (2020-12-08T20:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。