論文の概要: BAPFL: Exploring Backdoor Attacks Against Prototype-based Federated Learning
- arxiv url: http://arxiv.org/abs/2509.12964v1
- Date: Tue, 16 Sep 2025 11:15:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.05512
- Title: BAPFL: Exploring Backdoor Attacks Against Prototype-based Federated Learning
- Title(参考訳): BAPFL: プロトタイプベースのフェデレーションラーニングに対するバックドアアタック
- Authors: Honghong Zeng, Jiong Lou, Zhe Wang, Hefeng Zhou, Chentao Wu, Wei Zhao, Jie Li,
- Abstract要約: プロトタイプベースのフェデレーション学習は、本質的に既存のバックドア攻撃に耐性がある。
PFLフレームワーク用に設計された最初のバックドアアタック手法であるBAPFLを提案する。
BAPFLは従来のバックドア攻撃と比較して35%から75%の攻撃成功率の向上を実現している。
- 参考スコア(独自算出の注目度): 13.929771530924976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prototype-based federated learning (PFL) has emerged as a promising paradigm to address data heterogeneity problems in federated learning, as it leverages mean feature vectors as prototypes to enhance model generalization. However, its robustness against backdoor attacks remains largely unexplored. In this paper, we identify that PFL is inherently resistant to existing backdoor attacks due to its unique prototype learning mechanism and local data heterogeneity. To further explore the security of PFL, we propose BAPFL, the first backdoor attack method specifically designed for PFL frameworks. BAPFL integrates a prototype poisoning strategy with a trigger optimization mechanism. The prototype poisoning strategy manipulates the trajectories of global prototypes to mislead the prototype training of benign clients, pushing their local prototypes of clean samples away from the prototypes of trigger-embedded samples. Meanwhile, the trigger optimization mechanism learns a unique and stealthy trigger for each potential target label, and guides the prototypes of trigger-embedded samples to align closely with the global prototype of the target label. Experimental results across multiple datasets and PFL variants demonstrate that BAPFL achieves a 35\%-75\% improvement in attack success rate compared to traditional backdoor attacks, while preserving main task accuracy. These results highlight the effectiveness, stealthiness, and adaptability of BAPFL in PFL.
- Abstract(参考訳): 原型ベースフェデレーション学習(PFL)は,モデル一般化を促進するために,平均特徴ベクトルをプロトタイプとして活用することにより,フェデレーション学習におけるデータ不均一性問題に対処する,有望なパラダイムとして登場した。
しかし、バックドア攻撃に対する堅牢性はほとんど未解明のままである。
本稿では,PFLが既存のバックドア攻撃に対して本質的に抵抗的であることを明らかにする。
PFLのセキュリティをさらに調査するため,PFLフレームワーク用に設計された最初のバックドアアタック手法であるBAPFLを提案する。
BAPFLは、試薬の毒殺戦略とトリガー最適化機構を統合している。
試作品の毒殺戦略は、グローバルプロトタイプの軌道を操作して、良質なクライアントのプロトタイプを誤解させ、クリーニングサンプルのプロトタイプをトリガー埋め込みサンプルのプロトタイプから遠ざけている。
一方、トリガー最適化機構は、潜在的なターゲットラベルごとにユニークでステルスなトリガーを学習し、トリガー埋め込みサンプルのプロトタイプを誘導し、ターゲットラベルのグローバルプロトタイプと密接に一致させる。
複数のデータセットとPFLの変種にわたる実験結果から、BAPFLは従来のバックドア攻撃と比較して攻撃成功率を35-%-75-%改善し、メインタスクの精度を保っていることが示された。
これらの結果は, PFLにおけるBAPFLの有効性, ステルス性, 適応性を強調した。
関連論文リスト
- Probabilistic Prototype Calibration of Vision-Language Models for Generalized Few-shot Semantic Segmentation [75.18058114915327]
一般化されたFew-Shot Semanticnative(GFSS)は、いくつかの注釈付き例だけでセグメンテーションモデルを新しいクラスに拡張することを目的としている。
プリトレーニング済みCLIPのマルチモーダルプロトタイプ上での確率的プロトタイプ校正フレームワークであるFewCLIPを提案する。
FewCLIPはGFSSとクラスインクリメンタルセッティングの両方で最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2025-06-28T18:36:22Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Lurking in the shadows: Unveiling Stealthy Backdoor Attacks against Personalized Federated Learning [31.386836775526685]
PFLシステムに適用可能なステルスで効果的なバックドア攻撃戦略である textitPFedBA を提案する。
我々の研究は、PFLシステムに対する微妙ながら強力なバックドアの脅威に光を当て、新たなバックドアの課題に対する防衛を強化するようコミュニティに促している。
論文 参考訳(メタデータ) (2024-06-10T12:14:05Z) - FedTGP: Trainable Global Prototypes with Adaptive-Margin-Enhanced
Contrastive Learning for Data and Model Heterogeneity in Federated Learning [18.916282151435727]
不均一フェデレートラーニング(HtFL)は異種モデルやデータをサポートする能力から注目されている。
我々は,ACL(Adaptive-margin-enhanced Contrastive Learning)を活用して,サーバ上でトレーニング可能なグローバルプロトタイプ(TGP)を学習する,FedTGPという新しいHtFLアプローチを導入する。
論文 参考訳(メタデータ) (2024-01-06T14:43:47Z) - You Can Backdoor Personalized Federated Learning [18.91908598410108]
既存の研究は主に、一般的な連合学習シナリオにおけるバックドア攻撃と防御に焦点を当てている。
本稿では,2つの単純かつ効果的な戦略からなる2段階の攻撃手法であるBapFLを提案する。
論文 参考訳(メタデータ) (2023-07-29T12:25:04Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Backdoor Defense in Federated Learning Using Differential Testing and
Outlier Detection [24.562359531692504]
バックドア攻撃からFLシステムを保護するための自動防御フレームワークであるDifFenseを提案する。
提案手法は,グローバルモデルの平均バックドア精度を4%以下に低減し,偽陰性率ゼロを達成する。
論文 参考訳(メタデータ) (2022-02-21T17:13:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。