論文の概要: Quantifying Privacy via Information Density
- arxiv url: http://arxiv.org/abs/2402.12967v1
- Date: Tue, 20 Feb 2024 12:35:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 08:56:22.636830
- Title: Quantifying Privacy via Information Density
- Title(参考訳): 情報密度によるプライバシーの定量化
- Authors: Leonhard Grosse, Sara Saeidian, Parastoo Sadeghi, Tobias J. Oechtering, Mikael Skoglund,
- Abstract要約: 本稿では,情報密度を利用したプライバシー指標の関係について検討する。
ローカル情報プライバシ,非対称なローカル情報プライバシ,ポイントワイド最大リーク,ローカル差分プライバシの新たな関係を確立する。
- 参考スコア(独自算出の注目度): 36.919956584905236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine the relationship between privacy metrics that utilize information density to measure information leakage between a private and a disclosed random variable. Firstly, we prove that bounding the information density from above or below in turn implies a lower or upper bound on the information density, respectively. Using this result, we establish new relationships between local information privacy, asymmetric local information privacy, pointwise maximal leakage and local differential privacy. We further provide applications of these relations to privacy mechanism design. Furthermore, we provide statements showing the equivalence between a lower bound on information density and risk-averse adversaries. More specifically, we prove an equivalence between a guessing framework and a cost-function framework that result in the desired lower bound on the information density.
- Abstract(参考訳): 本稿では,情報密度を利用したプライバシー指標の関係について検討する。
まず,情報密度を上あるいは下から有界にすると,情報密度が下あるいは上界となることを示す。
この結果から,局所情報プライバシー,非対称ローカル情報プライバシ,ポイントワイド最大リーク,局所微分プライバシの新たな関係を確立する。
さらに、プライバシメカニズム設計へのこれらの関係の応用について述べる。
さらに、情報密度の低い境界とリスク・アバースの敵との等価性を示すステートメントを提供する。
より具体的には、推測フレームワークと情報密度の所望の低境界をもたらすコスト関数フレームワークの等価性を証明する。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Information Density Bounds for Privacy [36.919956584905236]
本稿では,プライベートデータと公開データ間の情報密度を低くすることで,プライバシ保証の意義を考察する。
我々は、ポイントワイド・最大コスト(PMC)と呼ばれる運用上有意義なプライバシー対策を導入し、PMCに上界を付与することは、情報密度に下限を課すことと等価であることを示した。
論文 参考訳(メタデータ) (2024-07-01T10:38:02Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - On Privacy and Confidentiality of Communications in Organizational
Graphs [3.5270468102327004]
この研究は、企業コンテキストにおける機密性とプライバシの区別方法を示している。
それは、機密性を維持するためのアプローチを定式化し、差分プライバシーの原則を活用することを目的としている。
論文 参考訳(メタデータ) (2021-05-27T19:45:56Z) - Differentially Private Normalizing Flows for Privacy-Preserving Density
Estimation [10.561489862855334]
明示的な差分プライバシー保証を提供する正規化フローモデルの使用を提案します。
このアルゴリズムを差分プライベート異常検出のタスクにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2021-03-25T18:39:51Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - A Graph Symmetrisation Bound on Channel Information Leakage under
Blowfish Privacy [12.72658988801038]
Blowfishのプライバシーは、最近の差分プライバシーの一般化であり、セマンティックな保証でプライバシーポリシーを維持しながら、実用性を改善することができる。
本稿では,Blowfishのプライバシを,通信理論コミュニティからの情報チャネルのプライバシ損失の重要な指標として,ミンエントロピーリーク(min-entropy leakage)について述べる。
論文 参考訳(メタデータ) (2020-07-12T12:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。