論文の概要: You Can Backdoor Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2307.15971v2
- Date: Mon, 18 Sep 2023 06:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:58:01.132938
- Title: You Can Backdoor Personalized Federated Learning
- Title(参考訳): 個人化フェデレーション学習のバックドア化
- Authors: Tiandi Ye, Cen Chen, Yinggui Wang, Xiang Li and Ming Gao
- Abstract要約: 既存の研究は主に、一般的な連合学習シナリオにおけるバックドア攻撃と防御に焦点を当てている。
本稿では,2つの単純かつ効果的な戦略からなる2段階の攻撃手法であるBapFLを提案する。
- 参考スコア(独自算出の注目度): 18.91908598410108
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing research primarily focuses on backdoor attacks and defenses within
the generic federated learning scenario, where all clients collaborate to train
a single global model. A recent study conducted by Qin et al. (2023) marks the
initial exploration of backdoor attacks within the personalized federated
learning (pFL) scenario, where each client constructs a personalized model
based on its local data. Notably, the study demonstrates that pFL methods with
\textit{parameter decoupling} can significantly enhance robustness against
backdoor attacks. However, in this paper, we whistleblow that pFL methods with
parameter decoupling are still vulnerable to backdoor attacks. The resistance
of pFL methods with parameter decoupling is attributed to the heterogeneous
classifiers between malicious clients and benign counterparts. We analyze two
direct causes of the heterogeneous classifiers: (1) data heterogeneity
inherently exists among clients and (2) poisoning by malicious clients further
exacerbates the data heterogeneity. To address these issues, we propose a
two-pronged attack method, BapFL, which comprises two simple yet effective
strategies: (1) poisoning only the feature encoder while keeping the classifier
fixed and (2) diversifying the classifier through noise introduction to
simulate that of the benign clients. Extensive experiments on three benchmark
datasets under varying conditions demonstrate the effectiveness of our proposed
attack. Additionally, we evaluate the effectiveness of six widely used defense
methods and find that BapFL still poses a significant threat even in the
presence of the best defense, Multi-Krum. We hope to inspire further research
on attack and defense strategies in pFL scenarios. The code is available at:
https://github.com/BapFL/code.
- Abstract(参考訳): 既存の研究は主に、すべてのクライアントが単一のグローバルモデルをトレーニングするために協力する、汎用的な統合学習シナリオにおけるバックドア攻撃と防御に焦点を当てている。
Qinらによる最近の研究(2023年)は、各クライアントがそのローカルデータに基づいてパーソナライズされたモデルを構築する、パーソナライズされたフェデレーションラーニング(pFL)シナリオにおけるバックドアアタックの最初の調査である。
特に, <textit{parameter decoupling} を用いたpFL法は, バックドア攻撃に対するロバスト性を著しく向上することを示した。
しかし,本論文では,パラメータデカップリングを用いたpFL法がバックドア攻撃に対して脆弱であることを示す。
パラメータデカップリングによるpFL法の抵抗は、悪意のあるクライアントと良質なクライアントの間の異種分類器に起因する。
1)データ不均一性は本質的にクライアントの間に存在し、(2)悪意のあるクライアントによる中毒はデータの不均一性をさらに悪化させる。
これらの問題に対処するために,(1)分類器を固定したまま特徴エンコーダのみを毒殺すること,(2)雑音導入により分類器を多様化し,良質なクライアントをシミュレートすること,の2つの簡単な方法であるBapFLを提案する。
様々な条件下で3つのベンチマークデータセットを広範囲に実験した結果,提案手法の有効性が示された。
さらに,6種類の防御手法の有効性を評価し,最善の防御であるマルチクラムが存在する場合でもbapflが依然として重大な脅威であることを確認した。
pFLシナリオにおける攻撃および防衛戦略に関するさらなる研究を刺激したいと思っています。
コードは、https://github.com/BapFL/code.comで入手できる。
関連論文リスト
- Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Practical and General Backdoor Attacks against Vertical Federated
Learning [3.587415228422117]
Federated Learning(FL)は、データのプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としている。
BadVFLは、ラベル情報なしで被害者モデルにバックドアトリガーを注入するための、新しく実用的なアプローチである。
BadVFLの攻撃成功率は93%を超え、毒殺率は1%に過ぎなかった。
論文 参考訳(メタデータ) (2023-06-19T07:30:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Mitigating Backdoors in Federated Learning with FLD [7.908496863030483]
フェデレーション学習は、クライアントがプライバシー保護のために生データをアップロードすることなく、グローバルモデルを協調的にトレーニングすることを可能にする。
この機能は最近、バックドア攻撃に直面したフェデレーション学習の脆弱性の原因となっていることが判明した。
バックドア攻撃に対して効果的に防御する新しいモデルフィルタリング手法であるフェデレート層検出(FLD)を提案する。
論文 参考訳(メタデータ) (2023-03-01T07:54:54Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Backdoor Defense in Federated Learning Using Differential Testing and
Outlier Detection [24.562359531692504]
バックドア攻撃からFLシステムを保護するための自動防御フレームワークであるDifFenseを提案する。
提案手法は,グローバルモデルの平均バックドア精度を4%以下に低減し,偽陰性率ゼロを達成する。
論文 参考訳(メタデータ) (2022-02-21T17:13:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。