論文の概要: REAEDP: Entropy-Calibrated Differentially Private Data Release with Formal Guarantees and Attack-Based Evaluation
- arxiv url: http://arxiv.org/abs/2603.13709v1
- Date: Sat, 14 Mar 2026 02:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.355058
- Title: REAEDP: Entropy-Calibrated Differentially Private Data Release with Formal Guarantees and Attack-Based Evaluation
- Title(参考訳): REAEDP: 形式的保証と攻撃に基づく評価を備えたエントロピーキャリブレーションによる個人データリリース
- Authors: Bo Ma, Jinsong Wu, Wei Qi Yan,
- Abstract要約: 本稿では,エントロピーキャリブレーションしたヒストグラムリリース,合成データリリース機構,アタックベース評価を組み合わせた差分プライバシーフレームワークを提案する。
理論側では、隣接するヒストグラムデータセットに対してシャノンエントロピーとレニエントロピーに拡張された明示的な感度を導出する。
本稿では,合成データ機構がパラメータ条件下での正式な差分プライバシー保証を満たすことを示す。
- 参考スコア(独自算出の注目度): 7.172756746172751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sensitive data release is vulnerable to output-side privacy threats such as membership inference, attribute inference, and record linkage. This creates a practical need for release mechanisms that provide formal privacy guarantees while preserving utility in measurable ways. We propose REAEDP, a differential privacy framework that combines entropy-calibrated histogram release, a synthetic-data release mechanism, and attack-based evaluation. On the theory side, we derive an explicit sensitivity bound for Shannon entropy, together with an extension to Rényi entropy, for adjacent histogram datasets, enabling calibrated differentially private release of histogram statistics. We further study a synthetic-data mechanism $\mathcal{F}$ with a privacy-test structure and show that it satisfies a formal differential privacy guarantee under the stated parameter conditions. On multiple public tabular datasets, the empirical entropy change remains below the theoretical bound in the tested regime, standard Laplace and Gaussian baselines exhibit comparable trends, and both membership-inference and linkage-style attack performance move toward random-guess behavior as the privacy parameter decreases. These results support REAEDP as a practically usable privacy-preserving release pipeline in the tested settings. Source code: https://github.com/mabo1215/REAEDP.git
- Abstract(参考訳): 機密データリリースは、メンバシップ推論、属性推論、レコードリンクのような出力側プライバシの脅威に対して脆弱である。
これにより、測定可能な方法でユーティリティを保持しながら、正式なプライバシ保証を提供するリリースメカニズムが現実的に必要になる。
本稿では,エントロピー校正ヒストグラムリリース,合成データリリース機構,アタックベース評価を組み合わせた差分プライバシーフレームワークREAEDPを提案する。
理論面では、シャノンエントロピーに対する明示的な感度と、隣接するヒストグラムデータセットに対するレニイエントロピーへの拡張を導出し、偏微分プライベートなヒストグラム統計の解放を可能にする。
さらに、プライバシテスト構造を持つ合成データ機構$\mathcal{F}$について検討し、パラメータ条件下での正式な差分プライバシー保証を満たすことを示す。
複数の公開表形式のデータセットでは、実証的なエントロピーの変化はテスト体制の理論的限界以下であり、標準のラプラスとガウスのベースラインは同等の傾向を示し、プライバシーパラメータが減少するにつれて、メンバシップ推論とリンケージスタイルのアタックパフォーマンスはランダムなゲス行動へと移行する。
これらの結果は、REAEDPをテスト設定で事実上使用可能なプライバシ保護リリースパイプラインとしてサポートします。
ソースコード:https://github.com/mabo1215/REAEDP.git
関連論文リスト
- Spectral Graph Clustering under Differential Privacy: Balancing Privacy, Accuracy, and Efficiency [53.98433419539793]
エッジ差分プライバシー(DP)下におけるスペクトルグラフクラスタリングの問題点について検討する。
具体的には, (i) エッジフリップによるグラフ摂動と, エッジプライバシを強制する隣接行列シャッフルを併用したグラフ摂動, (ii) 次元と複雑性の複雑さを低減するために低次元空間における加法的ガウス雑音を伴うプライベートグラフプロジェクション, (iii) 収束性を維持しながらエッジDPを確保するために反復的にガウス雑音を分散するノイズの多いパワーイテレーション手法である。
論文 参考訳(メタデータ) (2025-10-08T15:30:27Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - The Inadequacy of Similarity-based Privacy Metrics: Privacy Attacks against "Truly Anonymous" Synthetic Datasets [12.730435519914415]
実世界の合成データデプロイメントで使用されるプライバシメトリクスを調べ、その信頼性をいくつかの点で実証する。
ReconSynは、メトリクスによってプライベートと見なされるが、個々のレコードに固有の情報をリークする複数の合成データセットを生成するリコンストラクション攻撃である。
ReconSynは列車データから78-100%のアウトレーヤを復元し、ブラックボックスアクセスのみを1つの適合した生成モデルとプライバシメトリクスに含める。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。