論文の概要: Composition for Pufferfish Privacy
- arxiv url: http://arxiv.org/abs/2602.02718v1
- Date: Mon, 02 Feb 2026 19:36:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.036383
- Title: Composition for Pufferfish Privacy
- Title(参考訳): ふわふわのプライバシの組成
- Authors: Jiamu Bai, Guanlin He, Xin Gu, Daniel Kifer, Kiwan Maeng,
- Abstract要約: Pufferfishのような推論/後述のプライバシ定義は、相関のあるデータに対して魅力的なプライバシセマンティクスを提供する。
プライバシ定義のためのアルゴリズムを設計することは可能で、一度実行してもリークがないが、1回以上実行するとデータセット全体を明らかにすることができる。
このような変換は$(a,b)$-influence curve(英語版)と呼ばれる概念によって可能であることを示す。
- 参考スコア(独自算出の注目度): 13.778882297094171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When creating public data products out of confidential datasets, inferential/posterior-based privacy definitions, such as Pufferfish, provide compelling privacy semantics for data with correlations. However, such privacy definitions are rarely used in practice because they do not always compose. For example, it is possible to design algorithms for these privacy definitions that have no leakage when run once but reveal the entire dataset when run more than once. We prove necessary and sufficient conditions that must be added to ensure linear composition for Pufferfish mechanisms, hence avoiding such privacy collapse. These extra conditions turn out to be differential privacy-style inequalities, indicating that achieving both the interpretable semantics of Pufferfish for correlated data and composition benefits requires adopting differentially private mechanisms to Pufferfish. We show that such translation is possible through a concept called the $(a,b)$-influence curve, and many existing differentially private algorithms can be translated with our framework into a composable Pufferfish algorithm. We illustrate the benefit of our new framework by designing composable Pufferfish algorithms for Markov chains that significantly outperform prior work.
- Abstract(参考訳): 機密データセットから公開データ製品を作成する場合、Pufferfishのような推論/後述のプライバシ定義は、相関のあるデータに対する魅力的なプライバシセマンティクスを提供する。
しかし、そのようなプライバシー定義は、必ずしも構成されるとは限らないため、実際にはほとんど使われない。
例えば、一度実行してもリークがないこれらのプライバシ定義のためのアルゴリズムを設計することも可能だが、一度以上実行するとデータセット全体を明らかにすることができる。
我々は,Pufferfish機構の線形合成を保証するために必要かつ十分な条件を加える必要があることを証明し,そのようなプライバシの崩壊を避ける。
これらの余分な条件は、プライバシースタイルの不等式であり、相関したデータと構成上の利点のために、Pufferfishの解釈可能なセマンティクスの両方を達成するには、Pufferfishに差分的にプライベートなメカニズムを採用する必要があることを示している。
このような変換は$(a,b)$-influence curve(英語版)と呼ばれる概念によって可能であることを示す。
我々は,マルコフ連鎖に対して構成可能なPufferfishアルゴリズムを設計し,従来よりも大幅に優れていた新しいフレームワークの利点を説明する。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - Rényi Pufferfish Privacy: General Additive Noise Mechanisms and Privacy Amplification by Iteration [14.00448138862085]
Pufferfishのプライバシは、任意の秘密とデータに関する敵の事前知識をモデル化できる、フレキシブルな微分プライバシの一般化である。
我々は,R'enyi 発散に基づく Pufferfish の変種を紹介し,それが Pufferfish フレームワークの適用性の拡張を可能にすることを示す。
論文 参考訳(メタデータ) (2023-12-21T16:18:33Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Fully Adaptive Composition in Differential Privacy [53.01656650117495]
よく知られた高度な合成定理は、基本的なプライバシー構成が許すよりも、プライベートデータベースを2倍にクエリすることができる。
アルゴリズムとプライバシパラメータの両方を適応的に選択できる完全適応型合成を導入する。
適応的に選択されたプライバシパラメータが許されているにもかかわらず、定数を含む高度なコンポジションのレートに適合するフィルタを構築します。
論文 参考訳(メタデータ) (2022-03-10T17:03:12Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。