論文の概要: SPA: Towards More Stealth and Persistent Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.20931v1
- Date: Thu, 26 Jun 2025 01:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.938058
- Title: SPA: Towards More Stealth and Persistent Backdoor Attacks in Federated Learning
- Title(参考訳): SPA:フェデレートラーニングにおけるよりステルスで永続的なバックドアアタックを目指して
- Authors: Chengcheng Zhu, Ye Li, Bosen Rao, Jiale Zhang, Yunlong Mao, Sheng Zhong,
- Abstract要約: フェデレートラーニング(FL)は、プライバシ保護のための分散機械学習の主要なパラダイムとして登場したが、FLの分散特性にはユニークなセキュリティ上の課題が伴っている。
特徴空間アライメントを活用することによって従来のアプローチから離れるSPAという,斬新でステルス的なバックドアアタックフレームワークを提案する。
本研究は,FLにおけるバックドア脅威の高度化に緊急注意を喚起し,高度な機能レベル防衛技術の必要性を強調した。
- 参考スコア(独自算出の注目度): 10.924427077035915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has emerged as a leading paradigm for privacy-preserving distributed machine learning, yet the distributed nature of FL introduces unique security challenges, notably the threat of backdoor attacks. Existing backdoor strategies predominantly rely on end-to-end label supervision, which, despite their efficacy, often results in detectable feature disentanglement and limited persistence. In this work, we propose a novel and stealthy backdoor attack framework, named SPA, which fundamentally departs from traditional approaches by leveraging feature-space alignment rather than direct trigger-label association. Specifically, SPA reduces representational distances between backdoor trigger features and target class features, enabling the global model to misclassify trigger-embedded inputs with high stealth and persistence. We further introduce an adaptive, adversarial trigger optimization mechanism, utilizing boundary-search in the feature space to enhance attack longevity and effectiveness, even against defensive FL scenarios and non-IID data distributions. Extensive experiments on various FL benchmarks demonstrate that SPA consistently achieves high attack success rates with minimal impact on model utility, maintains robustness under challenging participation and data heterogeneity conditions, and exhibits persistent backdoor effects far exceeding those of conventional techniques. Our results call urgent attention to the evolving sophistication of backdoor threats in FL and emphasize the pressing need for advanced, feature-level defense techniques.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、プライバシ保護のための分散機械学習の主要なパラダイムとして登場したが、FLの分散性はユニークなセキュリティ課題、特にバックドア攻撃の脅威をもたらす。
既存のバックドア戦略は、主にエンドツーエンドのラベル管理に依存しており、その効果にもかかわらず、しばしば検出可能な機能障害と制限された永続性をもたらす。
本研究では,SPAという新鮮でステルスなバックドアアタック・フレームワークを提案する。これは直接トリガー・ラベル・アソシエーションではなく,特徴空間アライメントを活用することによって,従来のアプローチから根本的に離れている。
具体的には、SPAはバックドアトリガ特徴とターゲットクラス特徴との表現距離を削減し、グローバルモデルがトリガー埋め込み入力を高いステルスと永続性で誤分類できるようにする。
さらに,特徴空間における境界探索を利用して,防御的FLシナリオや非IIDデータ分布に対しても,攻撃長と有効性を向上させる適応的,対向的なトリガ最適化機構を導入する。
様々なFLベンチマーク実験により、SPAはモデルユーティリティへの影響を最小限に抑えながら高い攻撃成功率を連続的に達成し、挑戦的参加とデータ不均一性条件下で頑健性を維持し、従来の手法をはるかに上回る持続的バックドア効果を示すことを示した。
本研究は,FLにおけるバックドア脅威の高度化に緊急注意を喚起し,高度な機能レベル防衛技術の必要性を強調した。
関連論文リスト
- Sparsification Under Siege: Defending Against Poisoning Attacks in Communication-Efficient Federated Learning [10.036313132071545]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
通信効率と毒殺攻撃に対する脆弱性において、大きな課題に直面している。
スパースインデックスマスク検査とモデル更新符号類似性分析を統合した,新しいフェデレート学習フレームワークFLAREを提案する。
論文 参考訳(メタデータ) (2025-04-30T14:59:13Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - BadSFL: Backdoor Attack against Scaffold Federated Learning [16.104941796138128]
フェデレートラーニング(FL)は、分散クライアント上のディープラーニングモデルのトレーニングにより、データのプライバシを保護します。
BadSFLは、非IID環境での足場集約アルゴリズムを用いて、FLフレームワーク用に設計された新しいバックドアアタック手法である。
BadSFLは、グローバルモデルで60ラウンド以上有効であり、既存のベースライン攻撃の最大3倍の長さである。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。