論文の概要: MARS: A Malignity-Aware Backdoor Defense in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.20383v1
- Date: Sun, 21 Sep 2025 14:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.486403
- Title: MARS: A Malignity-Aware Backdoor Defense in Federated Learning
- Title(参考訳): MARS:フェデレートラーニングにおける悪性度を意識したバックドアディフェンス
- Authors: Wei Wan, Yuxuan Ning, Zhicong Huang, Cheng Hong, Shengshan Hu, Ziqi Zhou, Yechao Zhang, Tianqing Zhu, Wanlei Zhou, Leo Yu Zhang,
- Abstract要約: 最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 51.77354308287098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed paradigm aimed at protecting participant data privacy by exchanging model parameters to achieve high-quality model training. However, this distributed nature also makes FL highly vulnerable to backdoor attacks. Notably, the recently proposed state-of-the-art (SOTA) attack, 3DFed (SP2023), uses an indicator mechanism to determine whether the backdoor models have been accepted by the defender and adaptively optimizes backdoor models, rendering existing defenses ineffective. In this paper, we first reveal that the failure of existing defenses lies in the employment of empirical statistical measures that are loosely coupled with backdoor attacks. Motivated by this, we propose a Malignity-Aware backdooR defenSe (MARS) that leverages backdoor energy (BE) to indicate the malicious extent of each neuron. To amplify malignity, we further extract the most prominent BE values from each model to form a concentrated backdoor energy (CBE). Finally, a novel Wasserstein distance-based clustering method is introduced to effectively identify backdoor models. Extensive experiments demonstrate that MARS can defend against SOTA backdoor attacks and significantly outperforms existing defenses.
- Abstract(参考訳): Federated Learning(FL)は、高品質なモデルトレーニングを実現するためにモデルパラメータを交換することで、参加者データのプライバシ保護を目的とした分散パラダイムである。
しかし、この分散した性質により、FLはバックドア攻撃に対して非常に脆弱である。
特に、最近提案されたSOTA攻撃である3DFed (SP2023)は、バックドアモデルがディフェンダーによって受け入れられたかどうかを判断する指標機構を使用して、バックドアモデルを適応的に最適化し、既存の防御を効果的にしない。
本稿では,既存の防衛の失敗がバックドア攻撃と緩やかに結合した経験的統計尺度の活用に関係していることを明らかにする。
そこで我々は,各ニューロンの有害な範囲を示すために,バックドアエネルギー(BE)を利用したMARS(Maignity-Aware backdooR defenSe)を提案する。
悪性度を増幅するために、各モデルから最も顕著なBE値を抽出し、集中したバックドアエネルギー(CBE)を形成する。
最後に、バックドアモデルを効果的に同定するために、ワッサースタイン距離に基づく新しいクラスタリング手法を導入する。
大規模な実験は、MARSがSOTAのバックドア攻撃に対して防御できることを示し、既存の防御を著しく上回っている。
関連論文リスト
- FedBAP: Backdoor Defense via Benign Adversarial Perturbation in Federated Learning [9.79790722384987]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
FLの既存の防御方法は、バックドアトリガーに対するモデルの過度な信頼性を無視するため、効果が限られている。
本稿では,FLにおけるバックドア攻撃を緩和する新しいフレームワークであるFedBAPを提案する。
論文 参考訳(メタデータ) (2025-07-26T07:00:32Z) - Mingling with the Good to Backdoor Federated Learning [0.8657107511095243]
Federated Learning(FL)は、複数のエンティティがデータセットのプライバシを保持しながらモデルを共同でトレーニングすることを可能にする、分散機械学習技術である。
本稿では,様々な防御を回避しつつ,FLにバックドアを設置可能な汎用攻撃法の設計の可能性について検討する。
具体的には、MIGOと呼ばれる攻撃的戦略に注目し、正当性を微妙にブレンドしたモデル更新を作成することを目的としている。
論文 参考訳(メタデータ) (2025-01-03T17:30:59Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。