論文の概要: SABRE-FL: Selective and Accurate Backdoor Rejection for Federated Prompt Learning
- arxiv url: http://arxiv.org/abs/2506.22506v1
- Date: Wed, 25 Jun 2025 23:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.431356
- Title: SABRE-FL: Selective and Accurate Backdoor Rejection for Federated Prompt Learning
- Title(参考訳): SABRE-FL:Federated Prompt Learningのための選択的かつ正確なバックドア拒絶
- Authors: Momin Ahmad Khan, Yasra Chandio, Fatima Muhammad Anwar,
- Abstract要約: フェデレート・プロンプト・ラーニングにおけるバックドア・アタックの最初の研究について述べる。
悪意のあるクライアントが視覚的に認識不能で学習可能なノイズトリガーを入力画像に注入すると、グローバルなプロンプト学習者はターゲットの誤分類に対して脆弱になる。
この脆弱性に触発されたSABRE-FLは,非分布データに基づいてオフラインでトレーニングされた埋め込み空間異常検知器を用いて,有害な即時更新をフィルタリングする軽量モジュールディフェンスである。
- 参考スコア(独自算出の注目度): 1.3312007032203859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Prompt Learning has emerged as a communication-efficient and privacy-preserving paradigm for adapting large vision-language models like CLIP across decentralized clients. However, the security implications of this setup remain underexplored. In this work, we present the first study of backdoor attacks in Federated Prompt Learning. We show that when malicious clients inject visually imperceptible, learnable noise triggers into input images, the global prompt learner becomes vulnerable to targeted misclassification while still maintaining high accuracy on clean inputs. Motivated by this vulnerability, we propose SABRE-FL, a lightweight, modular defense that filters poisoned prompt updates using an embedding-space anomaly detector trained offline on out-of-distribution data. SABRE-FL requires no access to raw client data or labels and generalizes across diverse datasets. We show, both theoretically and empirically, that malicious clients can be reliably identified and filtered using an embedding-based detector. Across five diverse datasets and four baseline defenses, SABRE-FL outperforms all baselines by significantly reducing backdoor accuracy while preserving clean accuracy, demonstrating strong empirical performance and underscoring the need for robust prompt learning in future federated systems.
- Abstract(参考訳): Federated Prompt Learningは、分散クライアント間でCLIPのような大規模なビジョン言語モデルを適用するための、コミュニケーション効率とプライバシ保護のパラダイムとして登場した。
しかし、この設定のセキュリティ上の意味は未解明のままである。
本研究は,フェデレート・プロンプト・ラーニングにおけるバックドア・アタックに関する最初の研究である。
悪意のあるクライアントが視覚的に認識不能で学習可能なノイズトリガーを入力画像に注入すると、グローバルなプロンプト学習者は、クリーンな入力に対して高い精度を維持しながら、ターゲットの誤分類に対して脆弱になる。
この脆弱性に触発されたSABRE-FLは,非分布データに基づいてオフラインでトレーニングされた埋め込み空間異常検知器を用いて,有害な即時更新をフィルタリングする軽量モジュールディフェンスである。
SABRE-FLは、生のクライアントデータやラベルへのアクセスを必要とせず、多様なデータセットにまたがって一般化する。
理論的にも経験的にも、悪意のあるクライアントを確実に識別し、埋め込み型検出器を用いてフィルタリングできることが示される。
5つの多様なデータセットと4つのベースラインディフェンスにおいて、SABRE-FLは、クリーンな精度を維持しながらバックドアの精度を大幅に低下させ、強力な経験的性能を示し、将来の連合システムにおける堅牢な迅速な学習の必要性を強調することによって、すべてのベースラインを上回ります。
関連論文リスト
- Hear No Evil: Detecting Gradient Leakage by Malicious Servers in Federated Learning [35.64232606410778]
フェデレーション学習の勾配更新は、クライアントのローカルデータに関する機密情報を意図せずに明らかにすることができる。
本稿では,悪質な勾配漏洩攻撃の包括的解析と,それらを可能にするモデル操作技術について述べる。
本稿では,ローカルトレーニング開始前に不審なモデル更新を通知する,シンプルで軽量で広く適用可能なクライアント側検出機構を提案する。
論文 参考訳(メタデータ) (2025-06-25T17:49:26Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - Lie Detector: Unified Backdoor Detection via Cross-Examination Framework [68.45399098884364]
半正直な設定で一貫したバックドア検出フレームワークを提案する。
本手法は,SoTAベースラインよりも5.4%,1.6%,11.9%の精度で検出性能が向上する。
特に、マルチモーダルな大規模言語モデルにおいて、バックドアを効果的に検出するのは、これが初めてである。
論文 参考訳(メタデータ) (2025-03-21T06:12:06Z) - URVFL: Undetectable Data Reconstruction Attack on Vertical Federated Learning [9.017014896207442]
既存の悪意のある攻撃は、基礎となるVFLトレーニングタスクを変化させ、受信した勾配と正直なトレーニングで受け取った勾配を比較することで容易に検出できる。
我々は,電流検出機構を回避する新しい攻撃戦略であるURVFLを開発する。
包括的実験により、URVFLは既存の攻撃を著しく上回り、悪意のある攻撃に対するSOTA検出方法を回避することに成功した。
論文 参考訳(メタデータ) (2024-04-30T14:19:06Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。