論文の概要: BaFFLe: Backdoor detection via Feedback-based Federated Learning
- arxiv url: http://arxiv.org/abs/2011.02167v2
- Date: Sun, 18 Apr 2021 13:19:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 23:07:49.482551
- Title: BaFFLe: Backdoor detection via Feedback-based Federated Learning
- Title(参考訳): BaFFLe:フィードバックベースのフェデレーション学習によるバックドア検出
- Authors: Sebastien Andreina, Giorgia Azzurra Marson, Helen M\"ollering, Ghassan
Karame
- Abstract要約: フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
- 参考スコア(独自算出の注目度): 3.6895394817068357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that federated learning (FL) is vulnerable to
poisoning attacks that inject a backdoor into the global model. These attacks
are effective even when performed by a single client, and undetectable by most
existing defensive techniques. In this paper, we propose Backdoor detection via
Feedback-based Federated Learning (BAFFLE), a novel defense to secure FL
against backdoor attacks. The core idea behind BAFFLE is to leverage data of
multiple clients not only for training but also for uncovering model poisoning.
We exploit the availability of diverse datasets at the various clients by
incorporating a feedback loop into the FL process, to integrate the views of
those clients when deciding whether a given model update is genuine or not. We
show that this powerful construct can achieve very high detection rates against
state-of-the-art backdoor attacks, even when relying on straightforward methods
to validate the model. Through empirical evaluation using the CIFAR-10 and
FEMNIST datasets, we show that by combining the feedback loop with a method
that suspects poisoning attempts by assessing the per-class classification
performance of the updated model, BAFFLE reliably detects state-of-the-art
backdoor attacks with a detection accuracy of 100% and a false-positive rate
below 5%. Moreover, we show that our solution can detect adaptive attacks aimed
at bypassing the defense.
- Abstract(参考訳): 近年の研究では、フェデレーション学習(fl)は、グローバルモデルにバックドアを注入する中毒攻撃に対して脆弱であることが示されている。
これらの攻撃は単一のクライアントが実行しても効果的であり、既存の防御技術では検出できない。
本稿では,バックドア攻撃に対してflを確保するための新しい防御手法であるフィードバックベースフェデレーション学習(baffle)によるバックドア検出を提案する。
BAFFLEの基本的な考え方は、トレーニングだけでなく、モデル中毒の発見にも複数のクライアントのデータを活用することだ。
我々は、flプロセスにフィードバックループを組み込むことで、様々なクライアントにおける多様なデータセットの可用性を活用し、与えられたモデル更新が本物かどうかを決定する際に、それらのクライアントのビューを統合する。
この強力な構造は、モデルを検証する簡単な方法に依存しても、最先端のバックドア攻撃に対して非常に高い検出率が得られることを示す。
CIFAR-10とFEMNISTデータセットを用いた実験的な評価により、フィードバックループと、更新されたモデルのクラスごとの分類性能を評価して毒殺未遂を疑う手法を組み合わせることにより、BAFFLEは、100%以上の検出精度と5%以下の偽陽性率で、最先端のバックドア攻撃を確実に検出することを示した。
さらに, 本手法は, 防御を回避し, 適応攻撃を検知できることを示す。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FLTracer: Accurate Poisoning Attack Provenance in Federated Learning [38.47921452675418]
Federated Learning(FL)は、複数のクライアントが共同で共有グローバルモデルをトレーニングできる、有望な分散学習アプローチである。
近年の研究では、FLは様々な毒殺攻撃に弱いことが示されており、グローバルモデルの性能を低下させるか、バックドアを導入することができる。
FLTracerは、様々な攻撃を正確に検出し、攻撃時間、目的、タイプ、および更新の有毒な位置を追跡できる最初のFL攻撃フレームワークである。
論文 参考訳(メタデータ) (2023-10-20T11:24:38Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Mitigating Backdoors in Federated Learning with FLD [7.908496863030483]
フェデレーション学習は、クライアントがプライバシー保護のために生データをアップロードすることなく、グローバルモデルを協調的にトレーニングすることを可能にする。
この機能は最近、バックドア攻撃に直面したフェデレーション学習の脆弱性の原因となっていることが判明した。
バックドア攻撃に対して効果的に防御する新しいモデルフィルタリング手法であるフェデレート層検出(FLD)を提案する。
論文 参考訳(メタデータ) (2023-03-01T07:54:54Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Backdoor Defense in Federated Learning Using Differential Testing and
Outlier Detection [24.562359531692504]
バックドア攻撃からFLシステムを保護するための自動防御フレームワークであるDifFenseを提案する。
提案手法は,グローバルモデルの平均バックドア精度を4%以下に低減し,偽陰性率ゼロを達成する。
論文 参考訳(メタデータ) (2022-02-21T17:13:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。