論文の概要: Training data membership inference via Gaussian process meta-modeling: a post-hoc analysis approach
- arxiv url: http://arxiv.org/abs/2510.21846v1
- Date: Wed, 22 Oct 2025 16:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.612128
- Title: Training data membership inference via Gaussian process meta-modeling: a post-hoc analysis approach
- Title(参考訳): ガウス過程メタモデリングによるデータメンバーシップ推定の訓練:ポストホック分析アプローチ
- Authors: Yongchao Huang, Pengfei Zhang, Shahzad Mumtaz,
- Abstract要約: 本稿では,ガウス過程(GP)メタモデリングに基づく,効率的かつ解釈可能なGP-MIAを提案する。
GP-MIAは、正確性、エントロピー、データセット統計などのポストホックメトリクスを使用して、GPをトレーニングし、メンバーと非メンバーを区別し、キャリブレーションされた不確実性推定を提供する。
合成データ,実世界の不正検出データ,CIFAR-10,WikiText-2 を用いて,GP-MIA が高精度で一般化可能であることを示す。
- 参考スコア(独自算出の注目度): 6.91739343652684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference attacks (MIAs) test whether a data point was part of a model's training set, posing serious privacy risks. Existing methods often depend on shadow models or heavy query access, which limits their practicality. We propose GP-MIA, an efficient and interpretable approach based on Gaussian process (GP) meta-modeling. Using post-hoc metrics such as accuracy, entropy, dataset statistics, and optional sensitivity features (e.g. gradients, NTK measures) from a single trained model, GP-MIA trains a GP classifier to distinguish members from non-members while providing calibrated uncertainty estimates. Experiments on synthetic data, real-world fraud detection data, CIFAR-10, and WikiText-2 show that GP-MIA achieves high accuracy and generalizability, offering a practical alternative to existing MIAs.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、データポイントがモデルのトレーニングセットの一部であるかどうかをテストし、重大なプライバシーリスクを生じさせる。
既存のメソッドはシャドウモデルや重いクエリアクセスに依存することが多いため、実用性は制限される。
本稿では,ガウス過程(GP)メタモデリングに基づく,効率的かつ解釈可能なGP-MIAを提案する。
正確性、エントロピー、データセット統計、および単一のトレーニングモデルからのオプション感度特徴(例えば勾配、NTK測度)などのポストホックな指標を用いて、GP-MIAはGP分類器を訓練し、メンバーと非メンバーを区別し、キャリブレーションされた不確実性推定を提供する。
合成データ、実世界の不正検出データ、CIFAR-10、WikiText-2の実験により、GP-MIAは、既存のMIAに代わる実用的な代替手段として、高い精度と一般化性を実現することが示された。
関連論文リスト
- Bayesian Inference of Training Dataset Membership [0.0]
本稿では,メンバーシップ推論のための効率よく解釈可能なベイズ推論手法を提案する。
予測誤差、信頼度(エントロピー)、大きさ、データセット統計などのポストホックな指標を訓練されたMLモデルから分析することにより、広範囲なモデルトレーニングを必要とせずに、メンバーシップの後方確率を計算する。
論文 参考訳(メタデータ) (2025-05-31T20:14:38Z) - Detecting Training Data of Large Language Models via Expectation Maximization [62.28028046993391]
本稿では,予測最大化アルゴリズムを用いて,メンバーシップスコアとプレフィックススコアを反復的に洗練する新しいメンバーシップ推論手法EM-MIAを紹介する。
EM-MIAはWikiMIAで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-10T03:31:16Z) - Bayesian Estimation and Tuning-Free Rank Detection for Probability Mass Function Tensors [17.640500920466984]
本稿では,関節のPMFを推定し,そのランクを観測データから自動的に推定する新しい枠組みを提案する。
我々は、様々なモデルパラメータの後方分布を近似するために、変分推論(VI)に基づく決定論的解を導出し、さらに、変分推論(SVI)を利用して、VVIベースのアプローチのスケーラブルバージョンを開発する。
合成データと実映画レコメンデーションデータの両方を含む実験は、推定精度、自動ランク検出、計算効率の点で、VVIおよびSVIベースの手法の利点を示している。
論文 参考訳(メタデータ) (2024-10-08T20:07:49Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Meta-learning to Calibrate Gaussian Processes with Deep Kernels for
Regression Uncertainty Estimation [43.23399636191726]
本稿では,遅延不確実性推定性能を改善するために,深層カーネルGPの校正のためのメタラーニング手法を提案する。
提案手法は,テスト期待校正誤差を最小限に抑えて,様々なタスクのデータを用いて不確実性を校正する方法をメタ学習する。
実験により,提案手法は高い回帰性能を維持しながら不確実性推定性能を向上させることを示した。
論文 参考訳(メタデータ) (2023-12-13T07:58:47Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Computationally-efficient initialisation of GPs: The generalised
variogram method [1.0312968200748118]
我々の戦略は,MLトレーニングの初期条件を見つけるための事前訓練段階として利用することができる。
合成および実世界のデータを用いて,異なるカーネルに対して,精度,MLとの整合性,計算複雑性を実験的に検証する。
論文 参考訳(メタデータ) (2022-10-11T12:13:21Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - MuyGPs: Scalable Gaussian Process Hyperparameter Estimation Using Local
Cross-Validation [1.2233362977312945]
本稿では,新しいGPハイパーパラメータ推定法であるMuyGPを提案する。
MuyGPsは、データの最も近い隣人構造を利用する事前のメソッドの上に構築される。
提案手法は, 解法と予測値の平均二乗誤差の両方において, 既知の競合よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-29T18:10:21Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。