論文の概要: Managing Correlations in Data and Privacy Demand
- arxiv url: http://arxiv.org/abs/2509.02856v1
- Date: Tue, 02 Sep 2025 22:03:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.352088
- Title: Managing Correlations in Data and Privacy Demand
- Title(参考訳): データとプライバシ要求の相関性を管理する
- Authors: Syomantak Chaudhuri, Thomas A. Courtade,
- Abstract要約: ユーザデータとプライバシ要求の相関が許された場合に,標準HDPフレームワークが不足していることが示される。
本稿では,ユーザデータとプライバシの嗜好を両立させる代替フレームワークであるAdd-Remove Heterogeneous Differential Privacy (AHDP)を提案する。
- 参考スコア(独自算出の注目度): 4.855689194518906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous works in the differential privacy literature that allow users to choose their privacy levels typically operate under the heterogeneous differential privacy (HDP) framework with the simplifying assumption that user data and privacy levels are not correlated. Firstly, we demonstrate that the standard HDP framework falls short when user data and privacy demands are allowed to be correlated. Secondly, to address this shortcoming, we propose an alternate framework, Add-remove Heterogeneous Differential Privacy (AHDP), that jointly accounts for user data and privacy preference. We show that AHDP is robust to possible correlations between data and privacy. Thirdly, we formalize the guarantees of the proposed AHDP framework through an operational hypothesis testing perspective. The hypothesis testing setup may be of independent interest in analyzing other privacy frameworks as well. Fourthly, we show that there exists non-trivial AHDP mechanisms that notably do not require prior knowledge of the data-privacy correlations. We propose some such mechanisms and apply them to core statistical tasks such as mean estimation, frequency estimation, and linear regression. The proposed mechanisms are simple to implement with minimal assumptions and modeling requirements, making them attractive for real-world use. Finally, we empirically evaluate proposed AHDP mechanisms, highlighting their trade-offs using LLM-generated synthetic datasets, which we release for future research.
- Abstract(参考訳): これまでは、ユーザがプライバシレベルを選択することのできる差分プライバシー文学において、ユーザデータとプライバシレベルが相関しないという仮定を単純化して、異種差分プライバシー(HDP)フレームワークの下で運用されていた。
まず,ユーザデータとプライバシ要求の相関が許された場合に,標準HDPフレームワークが不足することを示す。
第二に、この欠点に対処するために、ユーザデータとプライバシの嗜好を共同で説明する代替フレームワーク、Add-Remove Heterogeneous Differential Privacy (AHDP)を提案する。
AHDPはデータとプライバシの相関に堅牢であることを示す。
第3に,運用仮説テストの観点から提案したAHDPフレームワークの保証を形式化する。
仮説テストのセットアップは、他のプライバシーフレームワークの分析にも独立した関心を持つかもしれない。
第4に,データプライバシ相関の事前知識を必要としない非自明なAHDP機構が存在することを示す。
本稿では,そのようなメカニズムを提案し,平均推定,周波数推定,線形回帰といった基本的統計問題に適用する。
提案するメカニズムは最小限の仮定とモデリング要件で実装が簡単であり、現実世界での使用には魅力的である。
最後に,提案したAHDP機構を実証的に評価し,LLM合成データセットによるトレードオフを強調し,今後の研究に向けてリリースする。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Privacy Constrained Fairness Estimation for Decision Trees [2.9906966931843093]
任意のAIモデルの公平さを測定するには、データセット内の個人の敏感な属性が必要である。
プライバシ・アウェア・フェアネス・オブ・ルール(PAFER)と呼ばれる新しい手法を提案する。
提案手法は,ラプラシアン機構を用いて,データセット内の個人のプライバシーを高い確度で保証しつつ,低い誤差でSPを推定できることを示す。
論文 参考訳(メタデータ) (2023-12-13T14:54:48Z) - Simulation-based Bayesian Inference from Privacy Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。