論文の概要: Noise-Calibrated Inference from Differentially Private Sufficient Statistics in Exponential Families
- arxiv url: http://arxiv.org/abs/2603.02010v1
- Date: Mon, 02 Mar 2026 15:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.952172
- Title: Noise-Calibrated Inference from Differentially Private Sufficient Statistics in Exponential Families
- Title(参考訳): 指数関数家庭における差分私的十分統計量からの雑音校正推定
- Authors: Amir Asiaee, Samhita Pal,
- Abstract要約: 多くの微分プライベート(DP)データリリースシステムは、DP合成データを出力するか、アナリストに通常のように推論を行わせる。
本稿では,指数関数型家族のためのクリーンでトラクタブルな中間層を開発する。DP統計のみを解放し,ノイズ校正確率に基づく推定を行い,後処理としてパラメトリック合成データを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many differentially private (DP) data release systems either output DP synthetic data and leave analysts to perform inference as usual, which can lead to severe miscalibration, or output a DP point estimate without a principled way to do uncertainty quantification. This paper develops a clean and tractable middle ground for exponential families: release only DP sufficient statistics, then perform noise-calibrated likelihood-based inference and optional parametric synthetic data generation as post-processing. Our contributions are: (1) a general recipe for approximate-DP release of clipped sufficient statistics under the Gaussian mechanism; (2) asymptotic normality, explicit variance inflation, and valid Wald-style confidence intervals for the plug-in DP MLE; (3) a noise-aware likelihood correction that is first-order equivalent to the plug-in but supports bootstrap-based intervals; and (4) a matching minimax lower bound showing the privacy distortion rate is unavoidable. The resulting theory yields concrete design rules and a practical pipeline for releasing DP synthetic data with principled uncertainty quantification, validated on three exponential families and real census data.
- Abstract(参考訳): 多くの差分的プライベート(DP)データリリースシステムは、DP合成データを出力し、アナリストを通常のように推論させるか、あるいは不確実な定量化を行うための原則的な方法なしでDP点推定を出力する。
本稿では,指数関数型家族のためのクリーンでトラクタブルな中間層を開発する。DP統計のみを解放し,ノイズ校正確率に基づく推定を行い,後処理としてパラメトリック合成データを生成する。
筆者らの貢献は,(1)ガウスのメカニズムの下でクリッピングされた十分な統計量の近似DPリリースのための一般的なレシピ,(2)プラグインDP MLEに対する漸近正規性,明示的分散インフレーション,および有効なウォルド式信頼区間,(3)プラグインと同等だがブートストラップに基づくインターバルをサポートするノイズ認識精度補正,(4)プライバシの歪み率を示す最小境界のマッチングは避けられないことである。
得られた理論は、具体的設計規則と、原則的不確実性定量化を伴うDP合成データを3つの指数族と実際の国勢調査データで検証する実用的なパイプラインを導出する。
関連論文リスト
- Differentially Private Truncation of Unbounded Data via Public Second Moments [4.662174186673445]
本稿では,パブリック2次モーメント行列を用いてプライベートデータを変換するPMT(Public-moment-guided Truncation)を提案する。
PMTは差分プライバシーモデルの精度と安定性を大幅に改善する。
論文 参考訳(メタデータ) (2026-02-25T12:21:30Z) - Information-Theoretic Discrete Diffusion [8.018632880023336]
本稿では,離散拡散モデルに対する情報理論フレームワークを提案する。
結果は、最適スコアベースの損失の観点から、データのログライクな状態の時間分解を提供する。
合成および実世界のデータを用いた実験により, 推定器の精度, 分散安定性, 有用性が確認された。
論文 参考訳(メタデータ) (2025-10-28T05:59:05Z) - Spectral Graph Clustering under Differential Privacy: Balancing Privacy, Accuracy, and Efficiency [53.98433419539793]
エッジ差分プライバシー(DP)下におけるスペクトルグラフクラスタリングの問題点について検討する。
具体的には, (i) エッジフリップによるグラフ摂動と, エッジプライバシを強制する隣接行列シャッフルを併用したグラフ摂動, (ii) 次元と複雑性の複雑さを低減するために低次元空間における加法的ガウス雑音を伴うプライベートグラフプロジェクション, (iii) 収束性を維持しながらエッジDPを確保するために反復的にガウス雑音を分散するノイズの多いパワーイテレーション手法である。
論文 参考訳(メタデータ) (2025-10-08T15:30:27Z) - Private Statistical Estimation via Truncation [5.642973820558159]
データトランケーションによる個人統計推定のための新しいフレームワークを導入し、データサポートが非有界である場合のDP推定における重要な課題に対処する。
計算効率の良いDP推定器を開発した。
論文 参考訳(メタデータ) (2025-05-18T20:38:38Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [44.577599546904736]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Optimizing the Noise in Self-Supervised Learning: from Importance
Sampling to Noise-Contrastive Estimation [80.07065346699005]
GAN(Generative Adversarial Networks)のように、最適な雑音分布はデータ分布に等しくなると広く想定されている。
我々は、この自己教師型タスクをエネルギーベースモデルの推定問題として基礎づけるノイズ・コントラスト推定に目を向ける。
本研究は, 最適雑音のサンプリングは困難であり, 効率性の向上は, データに匹敵する雑音分布を選択することに比べ, 緩やかに行うことができると結論付けた。
論文 参考訳(メタデータ) (2023-01-23T19:57:58Z) - Noise-Aware Statistical Inference with Differentially Private Synthetic
Data [0.0]
DP合成データをまるで本物であるかのように単純に分析することは、人口レベルの推定に有効でないことを示す。
本稿では,多重計算分野の合成データ解析技術と合成データ生成技術を組み合わせることで,この問題に対処する。
我々は,最大エントロピーの原理を用いたノイズ対応合成データ生成アルゴリズム NAPSU-MQ を開発した。
論文 参考訳(メタデータ) (2022-05-28T16:59:46Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。