論文の概要: BackFed: An Efficient & Standardized Benchmark Suite for Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2507.04903v1
- Date: Mon, 07 Jul 2025 11:40:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.40324
- Title: BackFed: An Efficient & Standardized Benchmark Suite for Backdoor Attacks in Federated Learning
- Title(参考訳): BackFed: フェデレートラーニングにおけるバックドアアタックのための効率的で標準化されたベンチマークスイート
- Authors: Thinh Dao, Dung Thuy Nguyen, Khoa D Doan, Kok-Seng Wong,
- Abstract要約: Federated Learning (FL) システムは、バックドア攻撃に対して脆弱である。
BackFedはFLのバックドア攻撃と防御を標準化し、合理化し、確実に評価するためのベンチマークスイートである。
BackFedは、研究者が新しい攻撃と防御を包括的かつ確実に評価するための、プラグアンドプレイ環境である。
- 参考スコア(独自算出の注目度): 5.924780594614676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) systems are vulnerable to backdoor attacks, where adversaries train their local models on poisoned data and submit poisoned model updates to compromise the global model. Despite numerous proposed attacks and defenses, divergent experimental settings, implementation errors, and unrealistic assumptions hinder fair comparisons and valid conclusions about their effectiveness in real-world scenarios. To address this, we introduce BackFed - a comprehensive benchmark suite designed to standardize, streamline, and reliably evaluate backdoor attacks and defenses in FL, with a focus on practical constraints. Our benchmark offers key advantages through its multi-processing implementation that significantly accelerates experimentation and the modular design that enables seamless integration of new methods via well-defined APIs. With a standardized evaluation pipeline, we envision BackFed as a plug-and-play environment for researchers to comprehensively and reliably evaluate new attacks and defenses. Using BackFed, we conduct large-scale studies of representative backdoor attacks and defenses across both Computer Vision and Natural Language Processing tasks with diverse model architectures and experimental settings. Our experiments critically assess the performance of proposed attacks and defenses, revealing unknown limitations and modes of failures under practical conditions. These empirical insights provide valuable guidance for the development of new methods and for enhancing the security of FL systems. Our framework is openly available at https://github.com/thinh-dao/BackFed.
- Abstract(参考訳): フェデレート・ラーニング(FL)システムはバックドア・アタックに対して脆弱で、敵は地元のモデルを毒データで訓練し、毒モデルのアップデートを提出し、世界的モデルを侵害する。
多くの提案された攻撃と防御にもかかわらず、実験的な設定、実装の誤り、非現実的な仮定は、現実のシナリオにおけるそれらの有効性に関する公正な比較と妥当な結論を妨げている。
この問題に対処するために、バックドア攻撃と防衛をFLで標準化し、合理化し、確実に評価するために設計された包括的なベンチマークスイートであるBackFedを紹介した。
我々のベンチマークは、実験を著しく加速するマルチプロセス実装と、明確に定義されたAPIを通じて新しいメソッドのシームレスな統合を可能にするモジュール設計を通じて、重要な利点を提供します。
標準化された評価パイプラインでは、研究者が新しい攻撃や防御を包括的かつ確実に評価するためのプラグイン・アンド・プレイ環境としてBackFedが想定される。
BackFedを使って、さまざまなモデルアーキテクチャと実験的な設定でコンピュータビジョンと自然言語処理の両方のタスクにまたがる、代表的バックドア攻撃と防御の大規模研究を行う。
本実験は, 提案した攻撃・防御性能を定量的に評価し, 実用条件下での未知の限界と失敗の態様を明らかにした。
これらの経験的洞察は、新しい方法の開発やFLシステムのセキュリティ向上に有用なガイダンスを提供する。
私たちのフレームワークはhttps://github.com/thinh-dao/BackFed.orgで公開されています。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Byzantine-Robust Federated Learning: An Overview With Focus on Developing Sybil-based Attacks to Backdoor Augmented Secure Aggregation Protocols [0.0]
フェデレートラーニング(FL)パラダイムは、多数のクライアントがプライベートデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
従来のFLスキームは、悪意のあるバックドアを注入することによってモデルのパフォーマンスを損なおうとするビザンティン攻撃に弱いままである。
本稿では,既存の手法やフレームワークの総括的かつ更新された分類法について,フェデレートラーニングプロトコルのロバストネスの強みと弱みを詳細に分析し,詳細に分析する前に提案する。
我々は,RoFLの脆弱性を利用したSybilベースの2つの新しい攻撃を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:20:22Z) - MIBench: A Comprehensive Framework for Benchmarking Model Inversion Attack and Defense [42.56467639172508]
Model Inversion (MI)攻撃は、ターゲットモデルの出力情報を活用して、プライバシに敏感なトレーニングデータを再構築することを目的としている。
我々は、モデル反転攻撃と防御の体系的評価のためのMIBenchという最初の実用的なベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-07T16:13:49Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。