論文の概要: Ensembling Membership Inference Attacks Against Tabular Generative Models
- arxiv url: http://arxiv.org/abs/2509.05350v1
- Date: Tue, 02 Sep 2025 18:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.450069
- Title: Ensembling Membership Inference Attacks Against Tabular Generative Models
- Title(参考訳): 語彙生成モデルに対するメンバーシップ推論攻撃を組み立てる
- Authors: Joshua Ward, Yuxuan Yang, Chi-Hua Wang, Guang Cheng,
- Abstract要約: 現実的な脅威シナリオでは、敵は、経験的に最高のパフォーマンスオプションであることを保証せずに、単一のメソッドを選択する必要がある。
我々は、この課題を不確実性の下で決定論的問題として検討し、これまでで最大の合成データプライバシーベンチマークを実行した。
これらの知見に触発され、我々はMIAアンサンブルを提案し、個々の攻撃に基づいて構築された教師なしアンサンブルが、個々の攻撃よりも経験的により堅牢で後悔を最小化する戦略を提供することを示した。
- 参考スコア(独自算出の注目度): 7.709474360794182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership Inference Attacks (MIAs) have emerged as a principled framework for auditing the privacy of synthetic data generated by tabular generative models, where many diverse methods have been proposed that each exploit different privacy leakage signals. However, in realistic threat scenarios, an adversary must choose a single method without a priori guarantee that it will be the empirically highest performing option. We study this challenge as a decision theoretic problem under uncertainty and conduct the largest synthetic data privacy benchmark to date. Here, we find that no MIA constitutes a strictly dominant strategy across a wide variety of model architectures and dataset domains under our threat model. Motivated by these findings, we propose ensemble MIAs and show that unsupervised ensembles built on individual attacks offer empirically more robust, regret-minimizing strategies than individual attacks.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、表生成モデルによって生成される合成データのプライバシーを監査するための原則的な枠組みとして現れ、それぞれが異なるプライバシー漏洩信号を利用する様々な方法が提案されている。
しかし、現実的な脅威のシナリオでは、敵は先入観なしで1つのメソッドを選択しなければならない。
我々は、この課題を不確実性の下で決定論的問題として検討し、これまでで最大の合成データプライバシーベンチマークを実行した。
ここでは、MIAが脅威モデルの下で、広範囲のモデルアーキテクチャやデータセットドメインに対して厳密に支配的な戦略を構成していないことに気付きます。
これらの知見に触発され、我々はMIAアンサンブルを提案し、個々の攻撃に基づいて構築された教師なしアンサンブルが、個々の攻撃よりも経験的により堅牢で後悔を最小化する戦略を提供することを示した。
関連論文リスト
- Privacy Auditing Synthetic Data Release through Local Likelihood Attacks [7.780592134085148]
遺伝子様比攻撃(Gen-LRA)
Gen-LRAは、サロゲートモデルによる合成データに対する局所確率比の推定において、テスト観測が与える影響を評価して攻撃を定式化する。
その結果、Gen-LRAは、合成データのリリースのためのプライバシ監査ツールとしての有効性を裏付けている。
論文 参考訳(メタデータ) (2025-08-28T18:27:40Z) - Modality Unified Attack for Omni-Modality Person Re-Identification [16.624135145315673]
そこで本研究では,異なるモダリティモデルを攻撃するために,敵対的ジェネレータを訓練するための新しいモダリティ統一攻撃法を提案する。
実験により,本手法は全モードリイドモデルに対して,55.9%,24.4%,49.0%,62.7%のmAP低下率で効果的に攻撃可能であることが示された。
論文 参考訳(メタデータ) (2025-01-22T09:54:43Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。