論文の概要: You Can Backdoor Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2307.15971v1
- Date: Sat, 29 Jul 2023 12:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 18:26:09.738351
- Title: You Can Backdoor Personalized Federated Learning
- Title(参考訳): 個人化フェデレーション学習のバックドア化
- Authors: Tiandi Ye, Cen Chen, Yinggui Wang, Xiang Li and Ming Gao
- Abstract要約: 個人化フェデレーション学習(pFL)シナリオにおけるバックドアアタックの最初の研究を行う。
本稿では,BapFL,BapFL+,Gen-BapFLの3つのバックドア攻撃手法を提案する。
モデル共有を伴う2つの古典的pFL手法に対する攻撃手法の評価を行った。
- 参考スコア(独自算出の注目度): 13.98952154869707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks pose a significant threat to the security of federated
learning systems. However, existing research primarily focuses on backdoor
attacks and defenses within the generic FL scenario, where all clients
collaborate to train a single global model. \citet{qin2023revisiting} conduct
the first study of backdoor attacks in the personalized federated learning
(pFL) scenario, where each client constructs a personalized model based on its
local data. Notably, the study demonstrates that pFL methods with partial
model-sharing can significantly boost robustness against backdoor attacks. In
this paper, we whistleblow that pFL methods with partial model-sharing are
still vulnerable to backdoor attacks in the absence of any defense. We propose
three backdoor attack methods: BapFL, BapFL+, and Gen-BapFL, and we empirically
demonstrate that they can effectively attack the pFL methods. Specifically, the
key principle of BapFL lies in maintaining clean local parameters while
implanting the backdoor into the global parameters. BapFL+ generalizes the
attack success to benign clients by introducing Gaussian noise to the local
parameters. Furthermore, we assume the collaboration of malicious clients and
propose Gen-BapFL, which leverages meta-learning techniques to further enhances
attack generalization. We evaluate our proposed attack methods against two
classic pFL methods with partial model-sharing, FedPer and LG-FedAvg. Extensive
experiments on four FL benchmark datasets demonstrate the effectiveness of our
proposed attack methods. Additionally, we assess the defense efficacy of
various defense strategies against our proposed attacks and find that Gradient
Norm-Clipping is particularly effective. It is crucial to note that pFL method
is not always secure in the presence of backdoor attacks, and we hope to
inspire further research on attack and defense in pFL scenarios.
- Abstract(参考訳): バックドア攻撃は、連合学習システムのセキュリティに重大な脅威をもたらす。
しかし、既存の研究は主に、すべてのクライアントが単一のグローバルモデルをトレーニングするために協力する一般的なFLシナリオにおけるバックドア攻撃と防御に焦点を当てている。
\citet{qin2023revisiting}は、各クライアントがそのローカルデータに基づいてパーソナライズされたモデルを構築する、パーソナライズされたフェデレーション学習(pFL)シナリオにおけるバックドアアタックの最初の研究を行う。
この研究は、部分的なモデル共有を伴うpFL法がバックドア攻撃に対するロバスト性を著しく向上させることを示した。
本稿では, 部分的モデル共有を伴うpFL法は, 防御がない場合にも, バックドア攻撃に対して脆弱であることを示す。
本稿では,BapFL,BapFL+,Gen-BapFLの3つのバックドア攻撃手法を提案する。
特に、bapflの重要な原則は、グローバルパラメータにバックドアを埋め込みながらクリーンなローカルパラメータを維持することである。
bapfl+は、ローカルパラメータにガウスノイズを導入することで、良性クライアントへの攻撃成功を一般化する。
さらに、悪意のあるクライアントの協力を前提として、メタ学習技術を活用して攻撃一般化をさらに強化するGen-BapFLを提案する。
モデル共有を部分的に行う2つの古典的pFL手法であるFedPerとLG-FedAvgに対する攻撃手法の評価を行った。
4つのFLベンチマークデータセットに対する大規模な実験により,提案手法の有効性が示された。
さらに,提案する攻撃に対する各種防御戦略の防御効果を評価し,勾配ノルムクリッピングが特に有効であることを見出した。
pfl法はバックドア攻撃の有無で常に安全とは限らないので、pflシナリオにおける攻撃と防御に関するさらなる研究を刺激したい。
関連論文リスト
- Cooperative Decentralized Backdoor Attacks on Vertical Federated Learning [22.076364118223324]
本稿では,垂直フェデレートラーニング(VFL)に対する新たなバックドアアタックを提案する。
ラベル推論モデルでは,距離学習による変分オートエンコーダが強化され,相手がローカルに学習できる。
コンバージェンス解析により,トレーニングモデルの定常差によって示されるVFLに対するバックドアの摂動の影響が明らかになった。
論文 参考訳(メタデータ) (2025-01-16T06:22:35Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Mitigating Backdoors in Federated Learning with FLD [7.908496863030483]
フェデレーション学習は、クライアントがプライバシー保護のために生データをアップロードすることなく、グローバルモデルを協調的にトレーニングすることを可能にする。
この機能は最近、バックドア攻撃に直面したフェデレーション学習の脆弱性の原因となっていることが判明した。
バックドア攻撃に対して効果的に防御する新しいモデルフィルタリング手法であるフェデレート層検出(FLD)を提案する。
論文 参考訳(メタデータ) (2023-03-01T07:54:54Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Backdoor Defense in Federated Learning Using Differential Testing and
Outlier Detection [24.562359531692504]
バックドア攻撃からFLシステムを保護するための自動防御フレームワークであるDifFenseを提案する。
提案手法は,グローバルモデルの平均バックドア精度を4%以下に低減し,偽陰性率ゼロを達成する。
論文 参考訳(メタデータ) (2022-02-21T17:13:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。