論文の概要: Leveraging Soft Prompts for Privacy Attacks in Federated Prompt Tuning
- arxiv url: http://arxiv.org/abs/2601.06641v1
- Date: Sat, 10 Jan 2026 17:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.915766
- Title: Leveraging Soft Prompts for Privacy Attacks in Federated Prompt Tuning
- Title(参考訳): フェデレートされたプロンプトチューニングにおけるプライバシ攻撃のためのソフトプロンプトの活用
- Authors: Quan Minh Nguyen, Min-Seon Kim, Hoang M. Ngo, Trong Nghia Hoang, Hyuk-Yoon Kwon, My T. Thai,
- Abstract要約: 本稿では,フェデレートされたプロンプトチューニングに適したメンバシップ推論攻撃であるPromptMIAを提案する。
PromptMIAは、様々なベンチマークデータセットに対して、このゲームにおいて一貫して高い優位性を発揮することを実証的に示します。
結果は、現在の防衛に対する非自明な課題を強調し、その制限に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 24.914116986408327
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Membership inference attack (MIA) poses a significant privacy threat in federated learning (FL) as it allows adversaries to determine whether a client's private dataset contains a specific data sample. While defenses against membership inference attacks in standard FL have been well studied, the recent shift toward federated fine-tuning has introduced new, largely unexplored attack surfaces. To highlight this vulnerability in the emerging FL paradigm, we demonstrate that federated prompt-tuning, which adapts pre-trained models with small input prefixes to improve efficiency, also exposes a new vector for privacy attacks. We propose PromptMIA, a membership inference attack tailored to federated prompt-tuning, in which a malicious server can insert adversarially crafted prompts and monitors their updates during collaborative training to accurately determine whether a target data point is in a client's private dataset. We formalize this threat as a security game and empirically show that PromptMIA consistently attains high advantage in this game across diverse benchmark datasets. Our theoretical analysis further establishes a lower bound on the attack's advantage which explains and supports the consistently high advantage observed in our empirical results. We also investigate the effectiveness of standard membership inference defenses originally developed for gradient or output based attacks and analyze their interaction with the distinct threat landscape posed by PromptMIA. The results highlight non-trivial challenges for current defenses and offer insights into their limitations, underscoring the need for defense strategies that are specifically tailored to prompt-tuning in federated settings.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、クライアントのプライベートデータセットに特定のデータサンプルが含まれているかどうかを敵が判断できるようにするため、フェデレートドラーニング(FL)において重大なプライバシー上の脅威となる。
標準FLにおけるメンバシップ推論攻撃に対する防御はよく研究されているが、近年のフェデレーションファインチューニングへのシフトにより、新しい、ほとんど探索されていない攻撃面が導入されている。
新たなFLパラダイムにおけるこの脆弱性を強調するために,プレトレーニング済みモデルを小さな入力プレフィックスで適応させて効率を向上するフェデレーションプロンプトチューニングが,プライバシ攻撃のための新たなベクタを公開することを実証した。
本稿では,クライアントのプライベートデータセットにターゲットデータポイントがあるかどうかを正確に判断するために,悪意のあるサーバが相互に作成したプロンプトを挿入し,コラボレーティブトレーニング中に更新を監視する,フェデレーションされたプロンプトチューニングに適したメンバシップ推論攻撃であるPromptMIAを提案する。
我々は、この脅威をセキュリティゲームとして形式化し、さまざまなベンチマークデータセットで、PromptMIAが一貫して高い優位性を発揮することを実証的に示します。
我々の理論的分析は、我々の経験的結果で一貫して観察される高い優位性について説明し、支持する攻撃の優位性に対する低い境界を更に確立する。
また,PmptMIAによって引き起こされる脅威景観との相互作用を解析し,元々は勾配や出力に基づく攻撃のために開発された標準メンバーシップ推論防御の有効性について検討した。
その結果は、現在の防衛に対する非自明な課題を浮き彫りにし、その制限に対する洞察を与え、連邦設定の迅速な調整に特化している防衛戦略の必要性を強調している。
関連論文リスト
- R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [69.72249695674665]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。