論文の概要: How to Get Actual Privacy and Utility from Privacy Models: the k-Anonymity and Differential Privacy Families
- arxiv url: http://arxiv.org/abs/2510.11299v1
- Date: Mon, 13 Oct 2025 11:41:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.344105
- Title: How to Get Actual Privacy and Utility from Privacy Models: the k-Anonymity and Differential Privacy Families
- Title(参考訳): プライバシモデルから実際のプライバシとユーティリティを得る方法:k匿名性と差分プライバシファミリ
- Authors: Josep Domingo-Ferrer, David Sánchez,
- Abstract要約: プライバシモデルは、プライバシ保護データパブリッシングと統計開示制御に導入された。
定義に問題があるため、適切な保護保証の提供に失敗する可能性がある。
k-匿名性のセマンティックな再構築は、ユーティリティを失うことなく、より堅牢なプライバシを提供することができる、と我々は主張する。
- 参考スコア(独自算出の注目度): 3.9894389299295514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy models were introduced in privacy-preserving data publishing and statistical disclosure control with the promise to end the need for costly empirical assessment of disclosure risk. We examine how well this promise is kept by the main privacy models. We find they may fail to provide adequate protection guarantees because of problems in their definition or incur unacceptable trade-offs between privacy protection and utility preservation. Specifically, k-anonymity may not entirely exclude disclosure if enforced with deterministic mechanisms or without constraints on the confidential values. On the other hand, differential privacy (DP) incurs unacceptable utility loss for small budgets and its privacy guarantee becomes meaningless for large budgets. In the latter case, an ex post empirical assessment of disclosure risk becomes necessary, undermining the main appeal of privacy models. Whereas the utility preservation of DP can only be improved by relaxing its privacy guarantees, we argue that a semantic reformulation of k-anonymity can offer more robust privacy without losing utility with respect to traditional syntactic k-anonymity.
- Abstract(参考訳): プライバシモデルは、プライバシー保護データパブリッシングと統計的開示制御に導入され、開示リスクの費用を経験的に評価する必要性を終わらせることが約束された。
この約束がどれだけ主要なプライバシーモデルで守られているか調べる。
定義上の問題や、プライバシー保護とユーティリティ保護の間の不可避なトレードオフが原因で、適切な保護保証の提供に失敗する可能性がある。
特にk匿名性は、決定論的メカニズムで強制されたり、秘密の値に制約がなければ、開示を完全に排除することはできない。
一方、差分プライバシー(DP)は、小さな予算では受け入れられないユーティリティ損失をもたらし、そのプライバシー保証は大きな予算では意味をなさないものとなる。
後者の場合、公開リスクの実証的な評価が必要となり、プライバシモデルの主な魅力を損なうことになる。
DPのユーティリティ保存は、プライバシー保証を緩和することによってのみ改善できるが、従来のシンタクティックなk匿名性に関して実用性を失うことなく、k匿名性のセマンティックな再構築により、より堅牢なプライバシを提供することができると論じる。
関連論文リスト
- Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Certification for Differentially Private Prediction in Gradient-Based Training [36.686002369773014]
非私的モデルの出力にノイズを加えることによって、差分プライバシーが達成されるプライベート予測について検討する。
既存の方法は、モデルのグローバルな感度に比例したノイズに依存しており、多くの場合、プライベートトレーニングと比較して、準最適プライバシーユーティリティトレードオフをもたらす。
本稿では,凸緩和法と有界伝播法を利用して,データセット固有の上限値の予測感度を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T10:47:00Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Rethinking Disclosure Prevention with Pointwise Maximal Leakage [36.3895452861944]
本稿では,秘密の$X$の低エントロピー機能の価値を開示し,実用性を実現するユーティリティとプライバシの一般モデルを提案する。
我々は、大衆の意見に反して、有意義な推論によるプライバシー保証を提供することを証明している。
PMLベースのプライバシは互換性があることを示し、差分プライバシーのような既存の概念に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-14T10:47:40Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - Differential Privacy at Risk: Bridging Randomness and Privacy Budget [5.393465689287103]
我々は、ノイズ分布によって引き起こされる明示的ランダム性や、データ生成によって引き起こされる暗黙的ランダム性など、ランダム性源の役割を分析する。
プライバシ保存機構の確率的校正であるリスクのあるプライバシを提案する。
コスト最適プライバシを用いたコンポジションは,従来の高度なコンポジションよりも強力なプライバシ保証を提供することを示す。
論文 参考訳(メタデータ) (2020-03-02T15:44:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。