論文の概要: Find a Scapegoat: Poisoning Membership Inference Attack and Defense to Federated Learning
- arxiv url: http://arxiv.org/abs/2507.00423v1
- Date: Tue, 01 Jul 2025 04:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.3308
- Title: Find a Scapegoat: Poisoning Membership Inference Attack and Defense to Federated Learning
- Title(参考訳): スカペゴットを見つける: フェデレートラーニングに対する会員推論攻撃と防衛
- Authors: Wenjin Mo, Zhiyuan Li, Minghong Fang, Mingwei Fang,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントが、中央サーバからの調整でグローバル機械学習モデルを協調的にトレーニングすることを可能にする。
FLの分散した性質は、悪意のあるクライアントが攻撃者によって制御され、有害なデータを送信し、モデルを侵害する攻撃を受けやすくする。
FLを標的とした新たな毒素量推定攻撃であるFedPoisonMIAを紹介する。
- 参考スコア(独自算出の注目度): 6.508508978092534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows multiple clients to collaboratively train a global machine learning model with coordination from a central server, without needing to share their raw data. This approach is particularly appealing in the era of privacy regulations like the GDPR, leading many prominent companies to adopt it. However, FL's distributed nature makes it susceptible to poisoning attacks, where malicious clients, controlled by an attacker, send harmful data to compromise the model. Most existing poisoning attacks in FL aim to degrade the model's integrity, such as reducing its accuracy, with limited attention to privacy concerns from these attacks. In this study, we introduce FedPoisonMIA, a novel poisoning membership inference attack targeting FL. FedPoisonMIA involves malicious clients crafting local model updates to infer membership information. Additionally, we propose a robust defense mechanism to mitigate the impact of FedPoisonMIA attacks. Extensive experiments across various datasets demonstrate the attack's effectiveness, while our defense approach reduces its impact to a degree.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントが、生データを共有することなく、中央サーバから協調してグローバルな機械学習モデルをトレーニングすることを可能にする。
このアプローチはGDPRのようなプライバシー規制の時代において特に魅力的で、多くの著名な企業が採用している。
しかし、FLの分散した性質は、悪意のあるクライアントが攻撃者によって制御され、有害なデータを送信してモデルを侵害する攻撃に影響を受けやすい。
FLの既存の中毒攻撃のほとんどは、これらの攻撃からのプライバシー上の懸念に限定して、精度の低下など、モデルの整合性を損なうことを目的としている。
本研究ではFedPoisonMIAについて紹介する。
FedPoisonMIAには、メンバーシップ情報を推測するローカルモデル更新を作成する悪意のあるクライアントが含まれている。
また,FedPoisonMIA攻撃の影響を軽減するための堅牢な防御機構を提案する。
さまざまなデータセットにわたる大規模な実験では、攻撃の有効性が示され、防御アプローチは影響をある程度低減します。
関連論文リスト
- A Client-level Assessment of Collaborative Backdoor Poisoning in Non-IID Federated Learning [14.728868104566363]
フェデレートラーニング(FL)は、複数のクライアントからの分散プライベートデータを使用した協調モデルトレーニングを可能にする。
我々の研究は、クライアント間で非独立かつ同一に分散された(非IID)データから生じる新たな脆弱性を明らかにする。
CollaPois と呼ばれる新規なバックドア中毒発作を発症した。
論文 参考訳(メタデータ) (2025-04-17T12:03:02Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - Resilience in Online Federated Learning: Mitigating Model-Poisoning Attacks via Partial Sharing [6.957420925496431]
フェデレートラーニング(FL)は、プライバシを損なうことなく、分散データ上で機械学習モデルをトレーニングすることを可能にする。
FLは、悪意のあるクライアントがローカルモデルを改ざんしてグローバルモデルを操作するような、モデル中毒攻撃に弱い。
本研究では,この攻撃に対する部分共有オンラインFL(PSO-Fed)アルゴリズムのレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-03-19T19:15:38Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Data Poisoning Attacks Against Federated Learning Systems [8.361127872250371]
Federated Learning(FL)は、大規模ディープニューラルネットワークの分散トレーニングのための新興パラダイムである。
本研究は, 参加者の悪意あるサブセットが世界モデルに毒を盛るFLシステムに対する標的データ中毒攻撃について検討した。
我々は、FLの悪意ある参加者を識別し、毒殺を回避できる防衛戦略を提案する。
論文 参考訳(メタデータ) (2020-07-16T16:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。