論文の概要: Information Density Bounds for Privacy
- arxiv url: http://arxiv.org/abs/2407.01167v1
- Date: Mon, 1 Jul 2024 10:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:59:43.051299
- Title: Information Density Bounds for Privacy
- Title(参考訳): プライバシーのための情報密度境界
- Authors: Sara Saeidian, Leonhard Grosse, Parastoo Sadeghi, Mikael Skoglund, Tobias J. Oechtering,
- Abstract要約: 本稿では,プライベートデータと公開データ間の情報密度を低くすることで,プライバシ保証の意義を考察する。
我々は、ポイントワイド・最大コスト(PMC)と呼ばれる運用上有意義なプライバシー対策を導入し、PMCに上界を付与することは、情報密度に下限を課すことと等価であることを示した。
- 参考スコア(独自算出の注目度): 36.919956584905236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the implications of guaranteeing privacy by imposing a lower bound on the information density between the private and the public data. We introduce an operationally meaningful privacy measure called pointwise maximal cost (PMC) and demonstrate that imposing an upper bound on PMC is equivalent to enforcing a lower bound on the information density. PMC quantifies the information leakage about a secret to adversaries who aim to minimize non-negative cost functions after observing the outcome of a privacy mechanism. When restricted to finite alphabets, PMC can equivalently be defined as the information leakage to adversaries aiming to minimize the probability of incorrectly guessing randomized functions of the secret. We study the properties of PMC and apply it to standard privacy mechanisms to demonstrate its practical relevance. Through a detailed examination, we connect PMC with other privacy measures that impose upper or lower bounds on the information density. Our results highlight that lower bounding the information density is a more stringent requirement than upper bounding it. Overall, our work significantly bridges the gaps in understanding the relationships between various privacy frameworks and provides insights for selecting a suitable framework for a given application.
- Abstract(参考訳): 本稿では,プライベートデータと公開データ間の情報密度を低くすることで,プライバシ保証の意義を考察する。
我々は、ポイントワイド・最大コスト(PMC)と呼ばれる運用上有意義なプライバシー対策を導入し、PMCに上界を付与することは、情報密度に下限を課すことと等価であることを示した。
PMCは、プライバシーメカニズムの結果を観察した後、非負のコスト機能を最小化しようとする敵に対する秘密に関する情報漏洩を定量化する。
有限個のアルファベットに制限された場合、PMCは秘密のランダム化関数を誤って推測する確率を最小化することを目的とした敵の情報漏洩として等価に定義することができる。
PMCの特性について検討し,その実用性を示すための標準プライバシ機構に適用する。
詳細な調査を通じて、情報密度に上下限を課す他のプライバシー対策とPMCを結びつける。
以上の結果から,情報密度の低下は上界よりも厳密な要件であることが示唆された。
全体として、当社の作業は、さまざまなプライバシフレームワーク間の関係を理解するギャップを著しく橋渡しし、特定のアプリケーションに適したフレームワークを選択するための洞察を提供します。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - A Framework for Managing Multifaceted Privacy Leakage While Optimizing Utility in Continuous LBS Interactions [0.0]
我々は,LBSにおけるプライバシー漏洩の理解と管理の促進を目的とした,新しいコントリビューションをいくつか提示する。
私たちのコントリビューションは、位置情報ベースのインタラクションのさまざまな側面にわたるプライバシー上の懸念を分析するための、より包括的なフレームワークを提供します。
論文 参考訳(メタデータ) (2024-04-20T15:20:01Z) - Quantifying Privacy via Information Density [36.919956584905236]
本稿では,情報密度を利用したプライバシー指標の関係について検討する。
ローカル情報プライバシ,非対称なローカル情報プライバシ,ポイントワイド最大リーク,ローカル差分プライバシの新たな関係を確立する。
論文 参考訳(メタデータ) (2024-02-20T12:35:14Z) - Rethinking Disclosure Prevention with Pointwise Maximal Leakage [36.3895452861944]
本稿では,秘密の$X$の低エントロピー機能の価値を開示し,実用性を実現するユーティリティとプライバシの一般モデルを提案する。
我々は、大衆の意見に反して、有意義な推論によるプライバシー保証を提供することを証明している。
PMLベースのプライバシは互換性があることを示し、差分プライバシーのような既存の概念に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-14T10:47:40Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。