論文の概要: BadPromptFL: A Novel Backdoor Threat to Prompt-based Federated Learning in Multimodal Models
- arxiv url: http://arxiv.org/abs/2508.08040v1
- Date: Mon, 11 Aug 2025 14:42:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.150784
- Title: BadPromptFL: A Novel Backdoor Threat to Prompt-based Federated Learning in Multimodal Models
- Title(参考訳): BadPromptFL:マルチモーダルモデルにおけるPromptベースのフェデレーションラーニングのための新たなバックドア脅威
- Authors: Maozhen Zhang, Mengnan Zhao, Bo Wang,
- Abstract要約: textbfBadPromptFLは,プロンプトベースのフェデレーション学習をターゲットにした最初のバックドア攻撃である。
BadPromptFLでは、妥協されたクライアントが、ローカルなバックドアトリガーを共同で最適化し、埋め込みを促し、中毒したプロンプトをグローバルアグリゲーションプロセスに注入する。
本実験は, 攻撃の有効性, ステルス性, 一般化性を検証し, 即時学習の堅牢性に対する批判的懸念を提起するものである。
- 参考スコア(独自算出の注目度): 5.485562905868406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt-based tuning has emerged as a lightweight alternative to full fine-tuning in large vision-language models, enabling efficient adaptation via learned contextual prompts. This paradigm has recently been extended to federated learning settings (e.g., PromptFL), where clients collaboratively train prompts under data privacy constraints. However, the security implications of prompt-based aggregation in federated multimodal learning remain largely unexplored, leaving a critical attack surface unaddressed. In this paper, we introduce \textbf{BadPromptFL}, the first backdoor attack targeting prompt-based federated learning in multimodal contrastive models. In BadPromptFL, compromised clients jointly optimize local backdoor triggers and prompt embeddings, injecting poisoned prompts into the global aggregation process. These prompts are then propagated to benign clients, enabling universal backdoor activation at inference without modifying model parameters. Leveraging the contextual learning behavior of CLIP-style architectures, BadPromptFL achieves high attack success rates (e.g., \(>90\%\)) with minimal visibility and limited client participation. Extensive experiments across multiple datasets and aggregation protocols validate the effectiveness, stealth, and generalizability of our attack, raising critical concerns about the robustness of prompt-based federated learning in real-world deployments.
- Abstract(参考訳): プロンプトに基づくチューニングは、大きな視覚言語モデルにおける完全な微調整の軽量な代替品として登場し、学習された文脈的プロンプトによる効率的な適応を可能にしている。
このパラダイムは、クライアントがデータプライバシ制約の下でプロンプトを協調的にトレーニングする、フェデレーション付き学習設定(例:PromptFL)にまで拡張されている。
しかし、連合型マルチモーダル学習におけるアクシデントベースのアグリゲーションのセキュリティへの影響は未解明のままであり、重要な攻撃面は未修正のままである。
本稿では,マルチモーダルコントラストモデルにおいて,プロンプトベースのフェデレーション学習を目的とした最初のバックドアアタックである \textbf{BadPromptFL} を紹介する。
BadPromptFLでは、妥協されたクライアントが、ローカルなバックドアトリガーを共同で最適化し、埋め込みを促し、中毒したプロンプトをグローバルアグリゲーションプロセスに注入する。
これらのプロンプトは良性クライアントに伝達され、モデルパラメータを変更することなく、推論時に普遍的なバックドアアクティベーションを可能にする。
CLIPスタイルのアーキテクチャのコンテキスト学習の振る舞いを活用することで、BadPromptFLは、可視性が最小限で、クライアントの参加が制限された高い攻撃成功率(例: \(>90\%\))を達成する。
複数のデータセットやアグリゲーションプロトコルにわたる大規模な実験により、攻撃の有効性、ステルス性、一般化性が検証され、現実のデプロイメントにおけるプロンプトベースのフェデレーション学習の堅牢性に関する重要な懸念が提起される。
関連論文リスト
- SABRE-FL: Selective and Accurate Backdoor Rejection for Federated Prompt Learning [1.3312007032203859]
フェデレート・プロンプト・ラーニングにおけるバックドア・アタックの最初の研究について述べる。
悪意のあるクライアントが視覚的に認識不能で学習可能なノイズトリガーを入力画像に注入すると、グローバルなプロンプト学習者はターゲットの誤分類に対して脆弱になる。
この脆弱性に触発されたSABRE-FLは,非分布データに基づいてオフラインでトレーニングされた埋め込み空間異常検知器を用いて,有害な即時更新をフィルタリングする軽量モジュールディフェンスである。
論文 参考訳(メタデータ) (2025-06-25T23:15:20Z) - Mixture of Experts Made Personalized: Federated Prompt Learning for Vision-Language Models [7.810284483002312]
フェデレート・プロンプト学習は,CLIP-like Vision-Language Model's (VLM's) によるファシリテート学習による堅牢な表現学習能力により,フェデレーション・プロンプト学習の恩恵を受ける。
現在のフェデレートされたプロンプト学習手法は、通常、従来のFLパラダイムに制限されており、参加するクライアントは通常、サーバから単一のグローバル集約モデルしかダウンロードできない。
適応確率の個人化混合(pFedMoAP)を提案する。これは、エキスパートの混合レンズ(MoE)を通して、迅速な学習プロセスをパーソナライズする新しいFLフレームワークである。
論文 参考訳(メタデータ) (2024-10-14T03:05:12Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - Inclusive Data Representation in Federated Learning: A Novel Approach
Integrating Textual and Visual Prompt [12.869146009608816]
我々は、視覚とテキストの両モードを統合する先駆的なソリューションであるTwin Prompt Federated Learning (TPFL)を紹介する。
データの不均一性問題に対処するために、クライアントモデルのグローバルな知識獲得を促進するだけでなく、堅牢でコンパクトなモデルの開発を促進するAugmented TPFL(ATPFL)を導入する。
TPFLとATPFLの有効性は広範囲な評価によって実証され,全てのベースラインと比較して常に優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T11:20:28Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - OpenPrompt: An Open-source Framework for Prompt-learning [59.17869696803559]
PLM上でのプロンプト学習を行うための統一的な使いやすさツールキットであるOpenPromptを提案する。
OpenPromptは、効率性、モジュール性、拡張性を備えた、リサーチフレンドリーなフレームワークである。
論文 参考訳(メタデータ) (2021-11-03T03:31:14Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。