論文の概要: United We Defend: Collaborative Membership Inference Defenses in Federated Learning
- arxiv url: http://arxiv.org/abs/2601.06866v1
- Date: Sun, 11 Jan 2026 11:18:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.039085
- Title: United We Defend: Collaborative Membership Inference Defenses in Federated Learning
- Title(参考訳): United We Defend:フェデレートラーニングにおける共同メンバシップ推論防衛
- Authors: Li Bai, Junxu Liu, Sen Zhang, Xinwei Zhang, Qingqing Ye, Haibo Hu,
- Abstract要約: 我々は、連合学習(FL)におけるメンバーシップ推論攻撃(MIA)に対する協調防御フレームワークであるCoFedMIDを紹介する。
CoFedMIDは3つのモジュールで構成されている: 選択ローカルトレーニングサンプルのためのクラス誘導分割モジュール、貢献サンプルをリサイクルするユーティリティ対応補償モジュール、および連立レベルでキャンセルのためのノイズをクライアント更新に注入する集約ニュートラル摂動モジュール。
- 参考スコア(独自算出の注目度): 15.542634122652812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs), which determine whether a specific data point was included in the training set of a target model, have posed severe threats in federated learning (FL). Unfortunately, existing MIA defenses, typically applied independently to each client in FL, are ineffective against powerful trajectory-based MIAs that exploit temporal information throughout the training process to infer membership status. In this paper, we investigate a new FL defense scenario driven by heterogeneous privacy needs and privacy-utility trade-offs, where only a subset of clients are defended, as well as a collaborative defense mode where clients cooperate to mitigate membership privacy leakage. To this end, we introduce CoFedMID, a collaborative defense framework against MIAs in FL, which limits local model memorization of training samples and, through a defender coalition, enhances privacy protection and model utility. Specifically, CoFedMID consists of three modules: a class-guided partition module for selective local training samples, a utility-aware compensation module to recycle contributive samples and prevent their overconfidence, and an aggregation-neutral perturbation module that injects noise for cancellation at the coalition level into client updates. Extensive experiments on three datasets show that our defense framework significantly reduces the performance of seven MIAs while incurring only a small utility loss. These results are consistently verified across various defense settings.
- Abstract(参考訳): 対象モデルのトレーニングセットに特定のデータポイントが含まれているかどうかを判断するメンバーシップ推論攻撃(MIA)は、フェデレートラーニング(FL)において深刻な脅威となっている。
残念ながら、既存のMIAディフェンスはFL内の各クライアントに独立して適用されるが、トレーニングプロセスを通して時間情報を利用してメンバーシップステータスを推測する強力なトラジェクトリベースのMIAに対して効果がない。
本稿では,不均一なプライバシ要求と,少数のクライアントのみを防衛するプライバシ・ユーティリティ・トレードオフによって引き起こされる新たなFLディフェンスシナリオと,ユーザによるプライバシ・リークの軽減に協力する協調ディフェンスモードについて検討する。
この目的のために、FLにおけるMIAに対する協調防御フレームワークであるCoFedMIDを導入し、トレーニングサンプルの局所的なモデル記憶を制限し、保護者連合を通じてプライバシ保護とモデルユーティリティを向上させる。
具体的には、CoFedMIDは3つのモジュールから構成される: 選択的なローカルトレーニングサンプルのためのクラス誘導分割モジュール、寄与サンプルをリサイクルし、その過信を防ぐユーティリティ対応補償モジュール、クライアント更新に連立レベルでキャンセルのためのノイズを注入する集約ニュートラル摂動モジュール。
3つのデータセットに対する大規模な実験により、我々の防衛フレームワークは7つのMIAの性能を著しく低下させる一方で、小さなユーティリティ損失しか生じないことがわかった。
これらの結果は、様々な防御設定で一貫して検証される。
関連論文リスト
- Leveraging Soft Prompts for Privacy Attacks in Federated Prompt Tuning [24.914116986408327]
本稿では,フェデレートされたプロンプトチューニングに適したメンバシップ推論攻撃であるPromptMIAを提案する。
PromptMIAは、様々なベンチマークデータセットに対して、このゲームにおいて一貫して高い優位性を発揮することを実証的に示します。
結果は、現在の防衛に対する非自明な課題を強調し、その制限に関する洞察を提供する。
論文 参考訳(メタデータ) (2026-01-10T17:50:05Z) - GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - Find a Scapegoat: Poisoning Membership Inference Attack and Defense to Federated Learning [6.508508978092534]
フェデレートラーニング(FL)は、複数のクライアントが、中央サーバからの調整でグローバル機械学習モデルを協調的にトレーニングすることを可能にする。
FLの分散した性質は、悪意のあるクライアントが攻撃者によって制御され、有害なデータを送信し、モデルを侵害する攻撃を受けやすくする。
FLを標的とした新たな毒素量推定攻撃であるFedPoisonMIAを紹介する。
論文 参考訳(メタデータ) (2025-07-01T04:46:23Z) - Client-Side Patching against Backdoor Attacks in Federated Learning [0.0]
フェデレーション学習は、悪意のある参加者によって起動されるバックドア攻撃に対して脆弱である。
本稿では,クライアント側のバックドア攻撃を緩和するフェデレーション学習システムのための新しい防御機構を提案する。
我々のアプローチは、バックドア攻撃の影響を和らげるために、敵対的学習技術とモデルパッチを利用する。
論文 参考訳(メタデータ) (2024-12-13T23:17:10Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - FAT: Federated Adversarial Training [5.287156503763459]
フェデレートラーニング(FL)は、機械学習(ML)におけるプライバシとデータガバナンスの問題に対処する最も重要なパラダイムの1つである。
我々は、トレーニング中のデータのプライバシを保ちながら、推論中の回避の脅威を軽減するために、両方の手法を組み合わせて、連合敵訓練(FAT)への第一歩を踏み出した。
論文 参考訳(メタデータ) (2020-12-03T09:47:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。