論文の概要: The Hidden Cost of Modeling P(X): Vulnerability to Membership Inference Attacks in Generative Text Classifiers
- arxiv url: http://arxiv.org/abs/2510.16122v1
- Date: Fri, 17 Oct 2025 18:09:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.856848
- Title: The Hidden Cost of Modeling P(X): Vulnerability to Membership Inference Attacks in Generative Text Classifiers
- Title(参考訳): P(X)モデリングの隠れコスト : 生成テキスト分類器におけるメンバーシップ推論攻撃の脆弱性
- Authors: Owais Makroo, Siva Rajesh Kasa, Sumegh Roychowdhury, Karan Gupta, Nikhil Pattisapu, Santhosh Kasa, Sumit Negi,
- Abstract要約: メンバーシップ推論攻撃(MIA)は、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを敵が判断できるようにすることで、重要なプライバシー上の脅威となる。
結合可能性$P(X,Y)$を明示的にモデル化した完全生成型分類器は、メンバシップリークに対して最も脆弱であることを示す。
- 参考スコア(独自算出の注目度): 6.542294761666199
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Membership Inference Attacks (MIAs) pose a critical privacy threat by enabling adversaries to determine whether a specific sample was included in a model's training dataset. Despite extensive research on MIAs, systematic comparisons between generative and discriminative classifiers remain limited. This work addresses this gap by first providing theoretical motivation for why generative classifiers exhibit heightened susceptibility to MIAs, then validating these insights through comprehensive empirical evaluation. Our study encompasses discriminative, generative, and pseudo-generative text classifiers across varying training data volumes, evaluated on nine benchmark datasets. Employing a diverse array of MIA strategies, we consistently demonstrate that fully generative classifiers which explicitly model the joint likelihood $P(X,Y)$ are most vulnerable to membership leakage. Furthermore, we observe that the canonical inference approach commonly used in generative classifiers significantly amplifies this privacy risk. These findings reveal a fundamental utility-privacy trade-off inherent in classifier design, underscoring the critical need for caution when deploying generative classifiers in privacy-sensitive applications. Our results motivate future research directions in developing privacy-preserving generative classifiers that can maintain utility while mitigating membership inference vulnerabilities.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを敵が判断できるようにすることで、重要なプライバシー上の脅威となる。
MIAに関する広範な研究にもかかわらず、生成的分類器と識別的分類器の系統的比較は依然として限られている。
この研究は、まず、生成型分類器がMIAに対する感受性を高めた理由に関する理論的動機を与え、総合的な経験的評価を通じてこれらの知見を検証することによって、このギャップに対処する。
本研究は,9つのベンチマークデータセットで評価した,各種学習データ量にまたがる識別的,生成的,疑似生成的テキスト分類器を包含する。
多様なMIA戦略を用いることで、有意に$P(X,Y)$をモデル化する完全生成型分類器が、メンバーシップリークに対して最も脆弱であることを示す。
さらに、生成型分類器で一般的に使用される標準推論アプローチは、このプライバシーリスクを著しく増幅する。
これらの知見は、プライバシに敏感なアプリケーションに生成型分類器を配置する上で、注意が必要であることを強調し、分類器設計に固有の基本的なユーティリティ・プライバシのトレードオフを明らかにした。
本研究は,プライバシー保護型ジェネレーティブ分類器の開発における今後の研究の方向性を示唆するものである。
関連論文リスト
- Neural Breadcrumbs: Membership Inference Attacks on LLMs Through Hidden State and Attention Pattern Analysis [9.529147118376464]
メンバーシップ推論攻撃(MIA)は、特定のデータが機械学習モデルのトレーニングに使用されたかどうかを明らかにする。
我々の研究は、内部表現を単に出力ではなく検査することで、メンバーシップ推論信号に対するさらなる洞察を与えることができるかを探る。
本研究は,出力に基づく信号が保護された場合でも,内部モデル行動がトレーニングデータの露出の側面を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2025-09-05T19:05:49Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - Center-Based Relaxed Learning Against Membership Inference Attacks [3.301728339780329]
我々は,Central-based relaxed learning (CRL)と呼ばれるアーキテクチャに依存しない新しい学習パラダイムを提案する。
CRLは任意の分類モデルに適応し、モデル一般化可能性の損失を最小限に抑え、プライバシ保護を提供する。
モデルキャパシティやデータコストを必要とせずに、このアプローチが同等のパフォーマンスを示すことを実証的に示しています。
論文 参考訳(メタデータ) (2024-04-26T19:41:08Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Generative Models with Information-Theoretic Protection Against
Membership Inference Attacks [6.840474688871695]
GAN(Generative Adversarial Networks)のような深層生成モデルは、多様な高忠実度データサンプルを合成する。
GANは、訓練されたデータから個人情報を開示し、敵の攻撃を受けやすい可能性がある。
本稿では,生成モデルがトレーニングデータに過度に適合しないようにし,一般化性を奨励する情報理論的動機付け正規化項を提案する。
論文 参考訳(メタデータ) (2022-05-31T19:29:55Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。