論文の概要: Coward: Toward Practical Proactive Federated Backdoor Defense via Collision-based Watermark
- arxiv url: http://arxiv.org/abs/2508.02115v1
- Date: Mon, 04 Aug 2025 06:51:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.210978
- Title: Coward: Toward Practical Proactive Federated Backdoor Defense via Collision-based Watermark
- Title(参考訳): Coward: Collision-based Watermarkによる実践的積極的に連携したバックドアディフェンスを目指して
- Authors: Wenjie Li, Siying Gu, Yiming Li, Kangjie Chen, Zhili Chen, Tianwei Zhang, Shu-Tao Xia, Dacheng Tao,
- Abstract要約: 我々は、マルチバックドア衝突効果の発見に触発されて、Cowardと呼ばれる新しいプロアクティブディフェンスを導入する。
一般に,サーバから注入された,矛盾するグローバルな透かしが,保持されるのではなく,ローカルトレーニング中に消去されるかどうかを評価することで攻撃者を検出する。
- 参考スコア(独自算出の注目度): 90.94234374893287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor detection is currently the mainstream defense against backdoor attacks in federated learning (FL), where malicious clients upload poisoned updates that compromise the global model and undermine the reliability of FL deployments. Existing backdoor detection techniques fall into two categories, including passive and proactive ones, depending on whether the server proactively modifies the global model. However, both have inherent limitations in practice: passive defenses are vulnerable to common non-i.i.d. data distributions and random participation of FL clients, whereas current proactive defenses suffer inevitable out-of-distribution (OOD) bias because they rely on backdoor co-existence effects. To address these issues, we introduce a new proactive defense, dubbed Coward, inspired by our discovery of multi-backdoor collision effects, in which consecutively planted, distinct backdoors significantly suppress earlier ones. In general, we detect attackers by evaluating whether the server-injected, conflicting global watermark is erased during local training rather than retained. Our method preserves the advantages of proactive defenses in handling data heterogeneity (\ie, non-i.i.d. data) while mitigating the adverse impact of OOD bias through a revised detection mechanism. Extensive experiments on benchmark datasets confirm the effectiveness of Coward and its resilience to potential adaptive attacks. The code for our method would be available at https://github.com/still2009/cowardFL.
- Abstract(参考訳): 現在、バックドア検出はフェデレートラーニング(FL)におけるバックドア攻撃に対する主要な防御手段であり、悪意のあるクライアントが悪意のあるアップデートをアップロードし、グローバルモデルを侵害し、FLデプロイメントの信頼性を損なう。
既存のバックドア検出技術は、サーバが積極的にグローバルモデルを変更するかどうかによって、パッシブとプロアクティブの2つのカテゴリに分類される。
受動的防御は、一般的な非I.d.データ分布やFLクライアントのランダムな参加に弱いのに対して、現在のプロアクティブ防衛は、バックドア共存効果に依存するため、必然的アウト・オブ・ディストリビューション(OOD)バイアスを被る。
これらの問題に対処するため、我々はCowardと呼ばれる新しいプロアクティブディフェンスを導入し、複数のバックドア衝突効果の発見から着想を得た。
一般に,サーバから注入された,矛盾するグローバルな透かしが,保持されるのではなく,ローカルトレーニング中に消去されるかどうかを評価することで攻撃者を検出する。
提案手法は,OODバイアスの悪影響を軽減しつつ,データ不均一性(非等化データ)を扱う上での積極的な防御の利点を保っている。
ベンチマークデータセットに対する大規模な実験により、Cowardの有効性と、潜在的な適応攻撃に対するレジリエンスが確認された。
私たちのメソッドのコードはhttps://github.com/still2009/cowardFL.comで利用可能です。
関連論文リスト
- Client-Side Patching against Backdoor Attacks in Federated Learning [0.0]
フェデレーション学習は、悪意のある参加者によって起動されるバックドア攻撃に対して脆弱である。
本稿では,クライアント側のバックドア攻撃を緩和するフェデレーション学習システムのための新しい防御機構を提案する。
我々のアプローチは、バックドア攻撃の影響を和らげるために、敵対的学習技術とモデルパッチを利用する。
論文 参考訳(メタデータ) (2024-12-13T23:17:10Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。