論文の概要: RAPID: Risk of Attribute Prediction-Induced Disclosure in Synthetic Microdata
- arxiv url: http://arxiv.org/abs/2602.09235v1
- Date: Mon, 09 Feb 2026 22:03:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.263566
- Title: RAPID: Risk of Attribute Prediction-Induced Disclosure in Synthetic Microdata
- Title(参考訳): RAPID: 合成マイクロデータにおける属性予測による開示のリスク
- Authors: Matthias Templ, Oscar Thees, Roman Müller,
- Abstract要約: 本稿では,現実的な攻撃モデル下での推論的脆弱性を直接定量化する情報開示リスク尺度を提案する。
敵は、解放された合成データのみに基づいて予測モデルを訓練し、実際の個人の擬似識別器に適用する。
本報告では,攻撃者が真のクラスに対してどの程度の自信を持っているかを評価するためのベースライン正規化信頼度スコアを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical data anonymization increasingly relies on fully synthetic microdata, for which classical identity disclosure measures are less informative than an adversary's ability to infer sensitive attributes from released data. We introduce RAPID (Risk of Attribute Prediction--Induced Disclosure), a disclosure risk measure that directly quantifies inferential vulnerability under a realistic attack model. An adversary trains a predictive model solely on the released synthetic data and applies it to real individuals' quasi-identifiers. For continuous sensitive attributes, RAPID reports the proportion of records whose predicted values fall within a specified relative error tolerance. For categorical attributes, we propose a baseline-normalized confidence score that measures how much more confident the attacker is about the true class than would be expected from class prevalence alone, and we summarize risk as the fraction of records exceeding a policy-defined threshold. This construction yields an interpretable, bounded risk metric that is robust to class imbalance, independent of any specific synthesizer, and applicable with arbitrary learning algorithms. We illustrate threshold calibration, uncertainty quantification, and comparative evaluation of synthetic data generators using simulations and real data. Our results show that RAPID provides a practical, attacker-realistic upper bound on attribute-inference disclosure risk that complements existing utility diagnostics and disclosure control frameworks.
- Abstract(参考訳): 統計データの匿名化は、完全に合成されたマイクロデータにますます依存しており、古典的なアイデンティティ開示対策は、解放されたデータから機密属性を推測する敵の能力よりも情報が少ない。
RAPID(Risk of Attribute Prediction--induced Disclosure)は,現実的な攻撃モデル下での推論的脆弱性を直接定量化する開示リスク尺度である。
敵は、解放された合成データのみに基づいて予測モデルを訓練し、実際の個人の擬似識別器に適用する。
連続感度特性について、RAPIDは、予測値が特定の相対誤差許容範囲内にあるレコードの割合を報告する。
分類的属性について,攻撃者が真のクラスに対してどれだけ自信を持っているかを評価する基準値正規化信頼度スコアを提案し,そのリスクを,政策定義しきい値を超えるレコード数として要約する。
この構成は、クラス不均衡に頑健で、任意のシンセサイザーとは独立で、任意の学習アルゴリズムで適用可能な解釈可能な有界リスクメトリックを得る。
シミュレーションと実データを用いて, しきい値の校正, 不確かさの定量化, および合成データ生成器の比較評価を行った。
以上の結果から,RAPIDは,既存のユーティリティ診断および開示制御フレームワークを補完する属性推論開示リスクに対して,現実的かつ現実的な上限を提供することが示された。
関連論文リスト
- Uncertainty-Aware Data-Efficient AI: An Information-Theoretic Perspective [48.073471560778984]
ロボット工学、電気通信、医療といったコンテキスト固有のアプリケーションでは、人工知能システムは訓練データに制限があるという課題に直面していることが多い。
本稿では,2つの相補的手法を用いて,データ制限体制に対処する形式的手法について検討する。
論文 参考訳(メタデータ) (2025-12-04T21:44:22Z) - Privacy Auditing Synthetic Data Release through Local Likelihood Attacks [7.780592134085148]
遺伝子様比攻撃(Gen-LRA)
Gen-LRAは、サロゲートモデルによる合成データに対する局所確率比の推定において、テスト観測が与える影響を評価して攻撃を定式化する。
その結果、Gen-LRAは、合成データのリリースのためのプライバシ監査ツールとしての有効性を裏付けている。
論文 参考訳(メタデータ) (2025-08-28T18:27:40Z) - Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Geometry-Aware Instrumental Variable Regression [56.16884466478886]
本稿では,データ導出情報によるデータ多様体の幾何を考慮した移動型IV推定器を提案する。
本手法のプラグイン・アンド・プレイ実装は,標準設定で関連する推定器と同等に動作する。
論文 参考訳(メタデータ) (2024-05-19T17:49:33Z) - On the Impact of Uncertainty and Calibration on Likelihood-Ratio Membership Inference Attacks [42.18575921329484]
我々は,情報理論の枠組みにおける可能性比攻撃(LiRA)の性能を解析する。
我々は、MIAの有効性に対する不確実性と校正の影響についての洞察を提供することを目的として、MIA敵の利点に基づいて境界を導出する。
論文 参考訳(メタデータ) (2024-02-16T13:41:18Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。