論文の概要: Accuracy-First Rényi Differential Privacy and Post-Processing Immunity
- arxiv url: http://arxiv.org/abs/2509.22213v1
- Date: Fri, 26 Sep 2025 11:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.386227
- Title: Accuracy-First Rényi Differential Privacy and Post-Processing Immunity
- Title(参考訳): 正確性第一レニイ差分プライバシとポストプロセッシング免疫
- Authors: Ossi Räisä, Antti Koskela, Antti Honkela,
- Abstract要約: 精度優先の観点からの既存の研究は、後処理免疫として知られる差分プライバシーの重要な特性を無視している。
後処理免疫を有するR'enyi差分プライバシーに基づく新しい定義を提案する。
- 参考スコア(独自算出の注目度): 11.418000446867135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accuracy-first perspective of differential privacy addresses an important shortcoming by allowing a data analyst to adaptively adjust the quantitative privacy bound instead of sticking to a predetermined bound. Existing works on the accuracy-first perspective have neglected an important property of differential privacy known as post-processing immunity, which ensures that an adversary is not able to weaken the privacy guarantee by post-processing. We address this gap by determining which existing definitions in the accuracy-first perspective have post-processing immunity, and which do not. The only definition with post-processing immunity, pure ex-post privacy, lacks useful tools for practical problems, such as an ex-post analogue of the Gaussian mechanism, and an algorithm to check if accuracy on separate private validation set is high enough. To address this, we propose a new definition based on R\'enyi differential privacy that has post-processing immunity, and we develop basic theory and tools needed for practical applications. We demonstrate the practicality of our theory with an application to synthetic data generation, where our algorithm successfully adjusts the privacy bound until an accuracy threshold is met on a private validation dataset.
- Abstract(参考訳): 差分プライバシーの精度第一の観点は、データアナリストが所定の境界に固執するのではなく、定量的プライバシー境界を適応的に調整できるようにすることで、重要な欠点に対処する。
精度優先の観点からの既存の研究は、ポストプロセッシング免疫として知られる差分プライバシーの重要な特性を無視しており、これは、相手がポストプロセッシングによってプライバシー保証を弱めることができないことを保証している。
精度第一の観点で既存の定義が後処理免疫を持つか、どちらがそうでないかを決定することで、このギャップに対処する。
ポストプロセッシング免疫の唯一の定義は、純粋にポストプライバシであり、ガウシアン機構のポストアナロジーや、個別のプライベート検証セットの精度が十分高いかどうかをチェックするアルゴリズムのような、実践的な問題に対して有用なツールが欠けていることである。
そこで本研究では,後処理免疫を有するR'enyi差分プライバシーに基づく新たな定義を提案し,実用アプリケーションに必要な基本理論とツールを開発する。
提案手法は,個人の検証データセット上で精度しきい値を満たすまで,プライバシ境界の調整に成功した合成データ生成への応用により,本理論の実用性を実証する。
関連論文リスト
- Conformal Prediction for Privacy-Preserving Machine Learning [83.88591755871734]
AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
論文 参考訳(メタデータ) (2025-07-13T15:29:14Z) - Privacy-Preserving Distributed Maximum Consensus Without Accuracy Loss [8.539683760001575]
分散ネットワークでは、最大要素を計算することが基本的な課題である。
その重要性にもかかわらず、分散された最大コンセンサスにおけるプライバシは文学において限られた注目を集めている。
精度を犠牲にすることなくプライバシを保存する分散最適化方式を提案する。
論文 参考訳(メタデータ) (2024-09-16T12:21:04Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Private measures, random walks, and synthetic data [7.5764890276775665]
微分プライバシーは、情報理論のセキュリティ保証を提供する数学的概念である。
我々は、プライベートな合成データを効率的に構築できるデータセットからプライベートな尺度を開発する。
我々の構築における重要な要素は、独立確率変数と同様の連立分布を持つ新しい超規則ランダムウォークである。
論文 参考訳(メタデータ) (2022-04-20T00:06:52Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。