論文の概要: Accuracy-First Rényi Differential Privacy and Post-Processing Immunity
- arxiv url: http://arxiv.org/abs/2509.22213v1
- Date: Fri, 26 Sep 2025 11:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.386227
- Title: Accuracy-First Rényi Differential Privacy and Post-Processing Immunity
- Title(参考訳): 正確性第一レニイ差分プライバシとポストプロセッシング免疫
- Authors: Ossi Räisä, Antti Koskela, Antti Honkela,
- Abstract要約: 精度優先の観点からの既存の研究は、後処理免疫として知られる差分プライバシーの重要な特性を無視している。
後処理免疫を有するR'enyi差分プライバシーに基づく新しい定義を提案する。
- 参考スコア(独自算出の注目度): 11.418000446867135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accuracy-first perspective of differential privacy addresses an important shortcoming by allowing a data analyst to adaptively adjust the quantitative privacy bound instead of sticking to a predetermined bound. Existing works on the accuracy-first perspective have neglected an important property of differential privacy known as post-processing immunity, which ensures that an adversary is not able to weaken the privacy guarantee by post-processing. We address this gap by determining which existing definitions in the accuracy-first perspective have post-processing immunity, and which do not. The only definition with post-processing immunity, pure ex-post privacy, lacks useful tools for practical problems, such as an ex-post analogue of the Gaussian mechanism, and an algorithm to check if accuracy on separate private validation set is high enough. To address this, we propose a new definition based on R\'enyi differential privacy that has post-processing immunity, and we develop basic theory and tools needed for practical applications. We demonstrate the practicality of our theory with an application to synthetic data generation, where our algorithm successfully adjusts the privacy bound until an accuracy threshold is met on a private validation dataset.
- Abstract(参考訳): 差分プライバシーの精度第一の観点は、データアナリストが所定の境界に固執するのではなく、定量的プライバシー境界を適応的に調整できるようにすることで、重要な欠点に対処する。
精度優先の観点からの既存の研究は、ポストプロセッシング免疫として知られる差分プライバシーの重要な特性を無視しており、これは、相手がポストプロセッシングによってプライバシー保証を弱めることができないことを保証している。
精度第一の観点で既存の定義が後処理免疫を持つか、どちらがそうでないかを決定することで、このギャップに対処する。
ポストプロセッシング免疫の唯一の定義は、純粋にポストプライバシであり、ガウシアン機構のポストアナロジーや、個別のプライベート検証セットの精度が十分高いかどうかをチェックするアルゴリズムのような、実践的な問題に対して有用なツールが欠けていることである。
そこで本研究では,後処理免疫を有するR'enyi差分プライバシーに基づく新たな定義を提案し,実用アプリケーションに必要な基本理論とツールを開発する。
提案手法は,個人の検証データセット上で精度しきい値を満たすまで,プライバシ境界の調整に成功した合成データ生成への応用により,本理論の実用性を実証する。
関連論文リスト
- Privacy-Utility Tradeoffs in Quantum Information Processing [13.088625380700933]
プライバシが$(varepsilon,)$-quantumローカルディファレンシャルプライバシによって定量化される場合、ジェネリックおよびアプリケーション固有のユーティリティメトリクスの両方に対して最適なトレードオフについて検討する。
我々は、高い確率で一定の精度を保証するのに必要なサンプル数に対する低い境界を導出する。
我々は、プライベートな学習タスクに有用な応用を約束する、プライベートな古典的な影の研究を開始することで、結論付ける。
論文 参考訳(メタデータ) (2026-02-11T04:21:45Z) - Conformal Prediction for Privacy-Preserving Machine Learning [83.88591755871734]
AESで暗号化されたMNISTデータセットの変種を用いて、暗号化されたドメインに直接適用しても、コンフォーマル予測法が有効であることを示す。
我々の研究は、安全でプライバシーに配慮した学習システムにおける原則的不確実性定量化の基礎を定めている。
論文 参考訳(メタデータ) (2025-07-13T15:29:14Z) - Privacy-Preserving Distributed Maximum Consensus Without Accuracy Loss [8.539683760001575]
分散ネットワークでは、最大要素を計算することが基本的な課題である。
その重要性にもかかわらず、分散された最大コンセンサスにおけるプライバシは文学において限られた注目を集めている。
精度を犠牲にすることなくプライバシを保存する分散最適化方式を提案する。
論文 参考訳(メタデータ) (2024-09-16T12:21:04Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Private measures, random walks, and synthetic data [7.5764890276775665]
微分プライバシーは、情報理論のセキュリティ保証を提供する数学的概念である。
我々は、プライベートな合成データを効率的に構築できるデータセットからプライベートな尺度を開発する。
我々の構築における重要な要素は、独立確率変数と同様の連立分布を持つ新しい超規則ランダムウォークである。
論文 参考訳(メタデータ) (2022-04-20T00:06:52Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。