論文の概要: A Tight Context-aware Privacy Bound for Histogram Publication
- arxiv url: http://arxiv.org/abs/2508.18832v1
- Date: Tue, 26 Aug 2025 09:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.772928
- Title: A Tight Context-aware Privacy Bound for Histogram Publication
- Title(参考訳): ヒストグラム公開のためのコンテキスト認識型プライバシー境界
- Authors: Sara Saeidian, Ata Yavuzyılmaz, Leonhard Grosse, Georg Schuppe, Tobias J. Oechtering,
- Abstract要約: 我々は、PML(pointwise maximal leakage)レンズを通してデータセットのヒストグラムを放出するLaplace機構のプライバシー保証を分析する。
それぞれのヒストグラムビンの確率をゼロから切り離すと、より強いプライバシー保護が一定レベルのノイズに対して達成されることを示す。
- 参考スコア(独自算出の注目度): 15.762008564991207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze the privacy guarantees of the Laplace mechanism releasing the histogram of a dataset through the lens of pointwise maximal leakage (PML). While differential privacy is commonly used to quantify the privacy loss, it is a context-free definition that does not depend on the data distribution. In contrast, PML enables a more refined analysis by incorporating assumptions about the data distribution. We show that when the probability of each histogram bin is bounded away from zero, stronger privacy protection can be achieved for a fixed level of noise. Our results demonstrate the advantage of context-aware privacy measures and show that incorporating assumptions about the data can improve privacy-utility tradeoffs.
- Abstract(参考訳): 本稿では,PML (pointwise maximal leakage) のレンズを用いて,データセットのヒストグラムを解放するLaplace機構のプライバシ保証を分析する。
差分プライバシーは一般的にプライバシー損失の定量化に使用されるが、データ分布に依存しない文脈自由の定義である。
対照的に、PMLはデータ分布に関する仮定を取り入れることで、より洗練された分析を可能にする。
それぞれのヒストグラムビンの確率をゼロから切り離すと、より強いプライバシー保護が一定レベルのノイズに対して達成されることを示す。
以上の結果から,コンテキスト対応型プライバシ対策の利点を実証し,データに対する仮定を取り入れることで,プライバシとユーティリティのトレードオフを改善できることが示唆された。
関連論文リスト
- Information-theoretic Estimation of the Risk of Privacy Leaks [0.0]
データセット内のアイテム間の依存関係は、プライバシリークを引き起こす可能性がある。
本稿では,プライバシ侵害の可能性を示唆する指標として,元データとランダム化器からのノイズ応答の相関を計測する。
論文 参考訳(メタデータ) (2025-06-14T03:39:11Z) - Urania: Differentially Private Insights into AI Use [104.7449031243196]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Optimal Allocation of Privacy Budget on Hierarchical Data Release [48.96399034594329]
本稿では,階層データリリースにおける最適プライバシ予算割り当ての問題に対処する。
データの粒度とプライバシー損失のトレードオフを考慮しつつ、全プライバシー予算の対象となるデータユーティリティの最大化を目指している。
論文 参考訳(メタデータ) (2025-05-16T05:25:11Z) - Information Density Bounds for Privacy [36.919956584905236]
本稿では,プライベートデータと公開データ間の情報密度を低くすることで,プライバシ保証の意義を考察する。
我々は、ポイントワイド・最大コスト(PMC)と呼ばれる運用上有意義なプライバシー対策を導入し、PMCに上界を付与することは、情報密度に下限を課すことと等価であることを示した。
論文 参考訳(メタデータ) (2024-07-01T10:38:02Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。