論文の概要: MARS: A Malignity-Aware Backdoor Defense in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.20383v1
- Date: Sun, 21 Sep 2025 14:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.486403
- Title: MARS: A Malignity-Aware Backdoor Defense in Federated Learning
- Title(参考訳): MARS:フェデレートラーニングにおける悪性度を意識したバックドアディフェンス
- Authors: Wei Wan, Yuxuan Ning, Zhicong Huang, Cheng Hong, Shengshan Hu, Ziqi Zhou, Yechao Zhang, Tianqing Zhu, Wanlei Zhou, Leo Yu Zhang,
- Abstract要約: 最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 51.77354308287098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a distributed paradigm aimed at protecting participant data privacy by exchanging model parameters to achieve high-quality model training. However, this distributed nature also makes FL highly vulnerable to backdoor attacks. Notably, the recently proposed state-of-the-art (SOTA) attack, 3DFed (SP2023), uses an indicator mechanism to determine whether the backdoor models have been accepted by the defender and adaptively optimizes backdoor models, rendering existing defenses ineffective. In this paper, we first reveal that the failure of existing defenses lies in the employment of empirical statistical measures that are loosely coupled with backdoor attacks. Motivated by this, we propose a Malignity-Aware backdooR defenSe (MARS) that leverages backdoor energy (BE) to indicate the malicious extent of each neuron. To amplify malignity, we further extract the most prominent BE values from each model to form a concentrated backdoor energy (CBE). Finally, a novel Wasserstein distance-based clustering method is introduced to effectively identify backdoor models. Extensive experiments demonstrate that MARS can defend against SOTA backdoor attacks and significantly outperforms existing defenses.
- Abstract(参考訳): Federated Learning(FL)は、高品質なモデルトレーニングを実現するためにモデルパラメータを交換することで、参加者データのプライバシ保護を目的とした分散パラダイムである。
しかし、この分散した性質により、FLはバックドア攻撃に対して非常に脆弱である。
特に、最近提案されたSOTA攻撃である3DFed (SP2023)は、バックドアモデルがディフェンダーによって受け入れられたかどうかを判断する指標機構を使用して、バックドアモデルを適応的に最適化し、既存の防御を効果的にしない。
本稿では,既存の防衛の失敗がバックドア攻撃と緩やかに結合した経験的統計尺度の活用に関係していることを明らかにする。
そこで我々は,各ニューロンの有害な範囲を示すために,バックドアエネルギー(BE)を利用したMARS(Maignity-Aware backdooR defenSe)を提案する。
悪性度を増幅するために、各モデルから最も顕著なBE値を抽出し、集中したバックドアエネルギー(CBE)を形成する。
最後に、バックドアモデルを効果的に同定するために、ワッサースタイン距離に基づく新しいクラスタリング手法を導入する。
大規模な実験は、MARSがSOTAのバックドア攻撃に対して防御できることを示し、既存の防御を著しく上回っている。
関連論文リスト
- Self-Purification Mitigates Backdoors in Multimodal Diffusion Language Models [74.1970982768771]
確立されたデータポゾンパイプラインは,MDLMにバックドアを埋め込むことに成功した。
拡散自己浄化(Diffusion Self-Purification)と呼ばれるMDLMのバックドア防御フレームワークについて紹介する。
論文 参考訳(メタデータ) (2026-02-24T15:47:52Z) - FedBAP: Backdoor Defense via Benign Adversarial Perturbation in Federated Learning [9.79790722384987]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
FLの既存の防御方法は、バックドアトリガーに対するモデルの過度な信頼性を無視するため、効果が限られている。
本稿では,FLにおけるバックドア攻撃を緩和する新しいフレームワークであるFedBAPを提案する。
論文 参考訳(メタデータ) (2025-07-26T07:00:32Z) - Neural Antidote: Class-Wise Prompt Tuning for Purifying Backdoors in CLIP [51.04452017089568]
CBPT(Class-wise Backdoor Prompt Tuning)は、テキストプロンプトでCLIPを間接的に浄化する効率的な防御機構である。
CBPTは、モデルユーティリティを保持しながら、バックドアの脅威を著しく軽減する。
論文 参考訳(メタデータ) (2025-02-26T16:25:15Z) - Mingling with the Good to Backdoor Federated Learning [0.8657107511095243]
Federated Learning(FL)は、複数のエンティティがデータセットのプライバシを保持しながらモデルを共同でトレーニングすることを可能にする、分散機械学習技術である。
本稿では,様々な防御を回避しつつ,FLにバックドアを設置可能な汎用攻撃法の設計の可能性について検討する。
具体的には、MIGOと呼ばれる攻撃的戦略に注目し、正当性を微妙にブレンドしたモデル更新を作成することを目的としている。
論文 参考訳(メタデータ) (2025-01-03T17:30:59Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Enhancing Fine-Tuning Based Backdoor Defense with Sharpness-Aware
Minimization [27.964431092997504]
良性データに基づく微調整は、バックドアモデルにおけるバックドア効果を消去するための自然な防御である。
本研究では, バックドア関連ニューロンのノルムを小さくするために, 微調整によるシャープネス認識最小化を取り入れた新しいバックドア防御パラダイムFTSAMを提案する。
論文 参考訳(メタデータ) (2023-04-24T05:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。