論文の概要: Composition Theorems for f-Differential Privacy
- arxiv url: http://arxiv.org/abs/2512.21358v1
- Date: Tue, 23 Dec 2025 08:21:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 20:48:41.755114
- Title: Composition Theorems for f-Differential Privacy
- Title(参考訳): f-differential Privacyのための合成理論
- Authors: Natasha Fernandes, Annabelle McIver, Parastoo Sadeghi,
- Abstract要約: f差分プライバシー (fDP) は、プライバシプライバシの最近の定義であり、"プライバシ損失"の予測を改善することができる。
統計的仮説テストにおけるfDPの基盤は, 定量的情報フローのチャネルモデルと等価であることを示す。
- 参考スコア(独自算出の注目度): 5.592792888722342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: "f differential privacy" (fDP) is a recent definition for privacy privacy which can offer improved predictions of "privacy loss". It has been used to analyse specific privacy mechanisms, such as the popular Gaussian mechanism. In this paper we show how fDP's foundation in statistical hypothesis testing implies equivalence to the channel model of Quantitative Information Flow. We demonstrate this equivalence by a Galois connection between two partially ordered sets. This equivalence enables novel general composition theorems for fDP, supporting improved analysis for complex privacy designs.
- Abstract(参考訳): f差分プライバシー (fDP) は、プライバシプライバシに関する最近の定義であり、"プライバシ損失"の予測を改善することができる。
これは、人気のあるガウスのメカニズムのような特定のプライバシーメカニズムを分析するために使われてきた。
本稿では, 統計的仮説テストにおけるfDPの基盤が, 定量的情報フローのチャネルモデルと等価であることを示す。
この同値性は、2つの半順序集合の間のガロア接続によって示される。
この等価性は、fDPのための新しい一般的な合成定理を可能にし、複雑なプライバシ設計のための分析の改善をサポートする。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Empirical Privacy Variance [32.41387301450962]
モデルのキャリブレーションが同じ$(varepsilon, delta)$-DPの保証は、経験的プライバシにおいて大きなバリエーションを示すことを示す。
複数の次元にわたるこの現象の一般性について検討し、なぜ驚きかつ関連性があるのかを論じる。
プライバシ監査のような既存のテクニックの限界を特定し,今後の研究に向けたオープンな質問を概説する。
論文 参考訳(メタデータ) (2025-03-16T01:43:49Z) - Differentially Private Random Feature Model [47.35176457481132]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - The Effect of Quantization in Federated Learning: A Rényi Differential Privacy Perspective [15.349042342071439]
フェデレートラーニング(FL)は、分散データを使用したプライバシ保護機械学習を大いに約束する新興パラダイムである。
プライバシーを強化するために、FLはモデルの重み付けにガウスノイズを加えることを含む差分プライバシー(DP)と組み合わせることができる。
本研究では,FLシステムにおける量子化がプライバシに与える影響について検討する。
論文 参考訳(メタデータ) (2024-05-16T13:50:46Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Stronger Privacy Amplification by Shuffling for R\'enyi and Approximate
Differential Privacy [43.33288245778629]
このモデルにおける重要な結果は、ランダムにランダム化されたデータをランダムにシャッフルすると、差分プライバシー保証が増幅されることである。
このような増幅は、匿名でデータが提供されるシステムにおいて、はるかに強力なプライバシー保証を意味する。
本研究では,理論的にも数値的にも,アートプライバシの増幅状態を改善する。
論文 参考訳(メタデータ) (2022-08-09T08:13:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。