論文の概要: Enhancing the Effectiveness and Durability of Backdoor Attacks in Federated Learning through Maximizing Task Distinction
- arxiv url: http://arxiv.org/abs/2509.18904v1
- Date: Tue, 23 Sep 2025 11:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.825086
- Title: Enhancing the Effectiveness and Durability of Backdoor Attacks in Federated Learning through Maximizing Task Distinction
- Title(参考訳): タスク識別の最大化によるフェデレーション学習におけるバックドアアタックの有効性と耐久性の向上
- Authors: Zhaoxin Wang, Handing Wang, Cong Tian, Yaochu Jin,
- Abstract要約: フェデレーション学習は、複数の参加者がプライベートデータを共有せずに、協力的に中央モデルをトレーニングすることを可能にする。
バックドア攻撃により 攻撃者は 悪意のある行動を世界モデルに 埋め込むことができる 良心的な入力を 高い精度で維持する
本稿では,バックドアトリガを動的に最適化することにより,バックドアタスクをメインタスクから切り離す手法を提案する。
- 参考スコア(独自算出の注目度): 30.129506166655418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows multiple participants to collaboratively train a central model without sharing their private data. However, this distributed nature also exposes new attack surfaces. In particular, backdoor attacks allow attackers to implant malicious behaviors into the global model while maintaining high accuracy on benign inputs. Existing attacks usually rely on fixed patterns or adversarial perturbations as triggers, which tightly couple the main and backdoor tasks. This coupling makes them vulnerable to dilution by honest updates and limits their persistence under federated defenses. In this work, we propose an approach to decouple the backdoor task from the main task by dynamically optimizing the backdoor trigger within a min-max framework. The inner layer maximizes the performance gap between poisoned and benign samples, ensuring that the contributions of benign users have minimal impact on the backdoor. The outer process injects the adaptive triggers into the local model. We evaluate our method on both computer vision and natural language tasks, and compare it with six backdoor attack methods under six defense algorithms. Experimental results show that our method achieves good attack performance and can be easily integrated into existing backdoor attack techniques.
- Abstract(参考訳): フェデレーション学習は、複数の参加者がプライベートデータを共有せずに、協力的に中央モデルをトレーニングすることを可能にする。
しかし、この分散した性質は新たな攻撃面を公開する。
特に、バックドア攻撃により、攻撃者は悪意のある入力を高い精度を維持しながら、悪意のある振る舞いをグローバルモデルに埋め込むことができる。
既存の攻撃は、通常、固定されたパターンや敵の摂動をトリガーとして頼りにしており、メインとバックドアのタスクをしっかりと妨害する。
この結合は、誠実な更新によって希釈に対して脆弱になり、連合防衛下での持続性を制限する。
本研究では,min-maxフレームワーク内でバックドアトリガを動的に最適化することにより,バックドアタスクをメインタスクから切り離す手法を提案する。
内部層は汚染されたサンプルと良性サンプルのパフォーマンスギャップを最大化し、良性ユーザの貢献がバックドアに与える影響を最小限にする。
外部プロセスは、適応的なトリガーを局所モデルに注入する。
本手法をコンピュータビジョンと自然言語タスクの両方で評価し、6つの防御アルゴリズムに基づく6つのバックドアアタック手法と比較した。
実験の結果,本手法は攻撃性能が良好であり,既存のバックドア攻撃技術に容易に組み込むことができることがわかった。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Towards Unified Robustness Against Both Backdoor and Adversarial Attacks [31.846262387360767]
ディープニューラルネットワーク(DNN)は、バックドアと敵の攻撃の両方に対して脆弱であることが知られている。
本稿では,バックドアと敵の攻撃との間には興味深い関係があることを明らかにする。
バックドアと敵の攻撃を同時に防御する新しいプログレッシブ統一防衛アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-28T07:50:00Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Demystifying Poisoning Backdoor Attacks from a Statistical Perspective [35.30533879618651]
バックドア攻撃は、そのステルス性や潜在的に深刻な影響により、重大なセキュリティリスクを引き起こす。
本稿では,一定のトリガを組み込んだバックドア攻撃の有効性を評価する。
我々の導出した理解は、識別モデルと生成モデルの両方に適用できる。
論文 参考訳(メタデータ) (2023-10-16T19:35:01Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。