論文の概要: Bad-PFL: Exploring Backdoor Attacks against Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2501.12736v1
- Date: Wed, 22 Jan 2025 09:12:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:36.597729
- Title: Bad-PFL: Exploring Backdoor Attacks against Personalized Federated Learning
- Title(参考訳): Bad-PFL: 個人化されたフェデレーションラーニングに対するバックドアアタックを探る
- Authors: Mingyuan Fan, Zhanyi Hu, Fuyi Wang, Cen Chen,
- Abstract要約: 連合学習(PFL)により、各クライアントはプライベートなパーソナライズされたモデルを維持でき、クライアント固有の知識を利用できる。
Bad-PFLは、私たちのトリガーとして自然データからの機能を取り入れ、パーソナライズされたモデルでその長寿を保証します。
3つのベンチマークデータセットに対する大規模な実験は、様々なPFL手法に対する攻撃の優れた性能を示す。
- 参考スコア(独自算出の注目度): 22.074601909696298
- License:
- Abstract: Data heterogeneity and backdoor attacks rank among the most significant challenges facing federated learning (FL). For data heterogeneity, personalized federated learning (PFL) enables each client to maintain a private personalized model to cater to client-specific knowledge. Meanwhile, vanilla FL has proven vulnerable to backdoor attacks. However, recent advancements in PFL community have demonstrated a potential immunity against such attacks. This paper explores this intersection further, revealing that existing federated backdoor attacks fail in PFL because backdoors about manually designed triggers struggle to survive in personalized models. To tackle this, we design Bad-PFL, which employs features from natural data as our trigger. As long as the model is trained on natural data, it inevitably embeds the backdoor associated with our trigger, ensuring its longevity in personalized models. Moreover, our trigger undergoes mutual reinforcement training with the model, further solidifying the backdoor's durability and enhancing attack effectiveness. The large-scale experiments across three benchmark datasets demonstrate the superior performance of our attack against various PFL methods, even when equipped with state-of-the-art defense mechanisms.
- Abstract(参考訳): データの不均一性とバックドア攻撃は、連邦学習(FL)が直面する最も重要な課題の1つである。
データの不均一性のために、パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントがプライベートなパーソナライズされたモデルを維持して、クライアント固有の知識を満たすことを可能にする。
一方、バニラFLはバックドア攻撃に弱いことが証明されている。
しかし、最近のPFLコミュニティの進歩は、そのような攻撃に対する潜在的な免疫を実証している。
本稿では、この交差点をさらに探求し、手動設計によるトリガーのバックドアがパーソナライズされたモデルで生き残るのに苦労するため、既存のフェデレーションバックドアアタックがPFLで失敗することを明らかにする。
この問題を解決するために、自然データの特徴をトリガーとして活用したBad-PFLを設計しました。
モデルが自然データに基づいてトレーニングされている限り、それは必然的に私たちのトリガーに関連するバックドアを埋め込んで、パーソナライズされたモデルでその寿命を保証します。
さらに,本モデルと相互強化トレーニングを行い,バックドアの耐久性をさらに強化し,攻撃効果を高める。
3つのベンチマークデータセットにわたる大規模な実験は、最先端の防御機構を備えた場合であっても、様々なPFL手法に対する攻撃の優れた性能を示す。
関連論文リスト
- BadSFL: Backdoor Attack against Scaffold Federated Learning [16.104941796138128]
フェデレートラーニング(FL)は、分散クライアント上のディープラーニングモデルのトレーニングにより、データのプライバシを保護します。
BadSFLは、非IID環境での足場集約アルゴリズムを用いて、FLフレームワーク用に設計された新しいバックドアアタック手法である。
BadSFLは、グローバルモデルで60ラウンド以上有効であり、既存のベースライン攻撃の最大3倍の長さである。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Lurking in the shadows: Unveiling Stealthy Backdoor Attacks against Personalized Federated Learning [31.386836775526685]
PFLシステムに適用可能なステルスで効果的なバックドア攻撃戦略である textitPFedBA を提案する。
我々の研究は、PFLシステムに対する微妙ながら強力なバックドアの脅威に光を当て、新たなバックドアの課題に対する防衛を強化するようコミュニティに促している。
論文 参考訳(メタデータ) (2024-06-10T12:14:05Z) - Practical and General Backdoor Attacks against Vertical Federated
Learning [3.587415228422117]
Federated Learning(FL)は、データのプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としている。
BadVFLは、ラベル情報なしで被害者モデルにバックドアトリガーを注入するための、新しく実用的なアプローチである。
BadVFLの攻撃成功率は93%を超え、毒殺率は1%に過ぎなかった。
論文 参考訳(メタデータ) (2023-06-19T07:30:01Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Neurotoxin: Durable Backdoors in Federated Learning [73.82725064553827]
連合学習システムは バックドア攻撃の訓練中に 固有の脆弱性がある
我々は,既存のバックドア攻撃に対する単純な一直線修正であるニューロトキシンを提案する。
論文 参考訳(メタデータ) (2022-06-12T16:52:52Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。