論文の概要: $f$-Differential Privacy Filters: Validity and Approximate Solutions
- arxiv url: http://arxiv.org/abs/2602.06756v1
- Date: Fri, 06 Feb 2026 15:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.433913
- Title: $f$-Differential Privacy Filters: Validity and Approximate Solutions
- Title(参考訳): $f$-Differential Privacy Filters: 妥当性と近似ソリューション
- Authors: Long Tran, Antti Koskela, Ossi Räisä, Antti Honkela,
- Abstract要約: 完全な適応構成の下でのプライバシー損失の会計は、差分プライバシーにおける中心的な課題である。
最適なトレードオフベースの概念である$f$-DPが、完全な適応的相互作用の下で有効なプライバシーフィルタを認めるかどうかは不明だ。
- 参考スコア(独自算出の注目度): 10.451946278781007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accounting for privacy loss under fully adaptive composition -- where both the choice of mechanisms and their privacy parameters may depend on the entire history of prior outputs -- is a central challenge in differential privacy (DP). In this setting, privacy filters are stopping rules for compositions that ensure a prescribed global privacy budget is not exceeded. It remains unclear whether optimal trade-off-function-based notions, such as $f$-DP, admit valid privacy filters under fully adaptive interaction. We show that the natural approach to defining an $f$-DP filter -- composing individual trade-off curves and stopping when the prescribed $f$-DP curve is crossed -- is fundamentally invalid. We characterise when and why this failure occurs, and establish necessary and sufficient conditions under which the natural filter is valid. Furthermore, we prove a fully adaptive central limit theorem for $f$-DP and construct an approximate Gaussian DP filter for subsampled Gaussian mechanisms at small sampling rates $q<0.2$ and large sampling rates $q>0.8$, yielding tighter privacy guarantees than filters based on Rényi DP in the same setting.
- Abstract(参考訳): 完全に適応的な構成の下でのプライバシ損失の会計 -- メカニズムの選択とプライバシパラメータが、以前のアウトプットの全履歴に依存する可能性がある -- は、差分プライバシ(DP)における中心的な課題である。
この設定では、プライバシーフィルターは、所定のグローバルプライバシー予算を超過しないことを保証する構成規則を停止している。
最適なトレードオフベースの概念である$f$-DPが、完全な適応的相互作用の下で有効なプライバシーフィルタを認めるかどうかは不明だ。
それぞれのトレードオフ曲線を構成する$f$-DPフィルタを定義するための自然なアプローチは、所定の$f$-DP曲線が交差するときに停止するという、基本的に無効であることを示す。
我々は,この障害の発生時期と原因を特徴付け,自然フィルタが有効である必要十分条件を確立する。
さらに、$f$-DPの完全適応型中央極限定理を証明し、小さなサンプリングレート$q<0.2$と大きなサンプリングレート$q>0.8$で、ガウスのメカニズムをサンプリングする近似ガウスのDPフィルタを構築し、同じ設定でRényi DPに基づくフィルタよりも厳密なプライバシー保証を与える。
関連論文リスト
- Optimal conversion from Rényi Differential Privacy to $f$-Differential Privacy [10.084485389183802]
レーニ微分プライバシー (RDP) プロファイル $mapsto ()$ を有効な仮説テストトレードオフ $f$ にマッピングするすべての変換規則の中で、 [Zhu et al. (2022) で述べられている予想を証明します。
この最適性は、すべての有効なプロファイルとすべてのType Iエラーレベルに対して$$を同時に保持する。
論文 参考訳(メタデータ) (2026-02-04T13:49:51Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Breaking the Gaussian Barrier: Residual-PAC Privacy for Automatic Privatization [27.430637970345433]
PACプライバシーアルゴリズムによって得られる上限は、摂動機構の出力が独立雑音を伴うガウス的である場合にのみ厳密であることを示す。
本稿では,逆推定後に残るプライバシを定量化するf-divergenceベースの尺度であるResidual-PAC(R-PAC)プライバシーを紹介する。
提案手法は,任意のデータ分布に対する効率的なプライバシ予算利用を実現し,複数のメカニズムがデータセットにアクセスすると自然に構成する。
論文 参考訳(メタデータ) (2025-06-06T20:52:47Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Individual Privacy Accounting with Gaussian Differential Privacy [8.81666701090743]
個別のプライバシ会計は、分析に関わる各関係者に対して、差分プライバシー(DP)の損失を個別に制限することを可能にする。
個人のプライバシー損失を原則的に説明するためには、ランダム化機構の適応的な構成のためのプライバシー会計士が必要である。
論文 参考訳(メタデータ) (2022-09-30T17:19:40Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。