論文の概要: Persuasive Privacy
- arxiv url: http://arxiv.org/abs/2601.22945v1
- Date: Fri, 30 Jan 2026 13:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.45402
- Title: Persuasive Privacy
- Title(参考訳): 説得的プライバシー
- Authors: Joshua J Bon, James Bailie, Judith Rousseau, Christian P Robert,
- Abstract要約: ベイズゲーム理論の観点からプライバシを測定するための新しいフレームワークを提案する。
我々は、純粋で確率的な差分プライバシーが我々のフレームワークの特別なケースであることを示し、この設定における後処理の不平等の新たな解釈を提供する。
- 参考スコア(独自算出の注目度): 1.3789489350166477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel framework for measuring privacy from a Bayesian game-theoretic perspective. This framework enables the creation of new, purpose-driven privacy definitions that are rigorously justified, while also allowing for the assessment of existing privacy guarantees through game theory. We show that pure and probabilistic differential privacy are special cases of our framework, and provide new interpretations of the post-processing inequality in this setting. Further, we demonstrate that privacy guarantees can be established for deterministic algorithms, which are overlooked by current privacy standards.
- Abstract(参考訳): ベイズゲーム理論の観点からプライバシを測定するための新しいフレームワークを提案する。
このフレームワークは、厳格に正当化された新しい目的駆動型プライバシ定義の作成を可能にすると同時に、ゲーム理論による既存のプライバシ保証の評価を可能にする。
我々は、純粋で確率的な差分プライバシーが我々のフレームワークの特別なケースであることを示し、この設定における後処理の不平等の新たな解釈を提供する。
さらに、現在のプライバシ標準では見過ごされていない決定論的アルゴリズムに対して、プライバシ保証が確立可能であることを実証する。
関連論文リスト
- Setting $\varepsilon$ is not the Issue in Differential Privacy [7.347270525437453]
プライバシー予算を解釈するいわゆる問題は、ディファレンシャル・プライバシの広く採用される大きな障害としてしばしば提示される。
プライバシー予算の解釈の難しさは、差分プライバシーの定義自体に起因していないと我々は主張する。
我々は、現在の研究状況を考えると、プライバシーリスクを推定するための健全な手法は、差分プライバシーフレームワーク内で表現可能であるべきだと主張している。
論文 参考訳(メタデータ) (2025-11-09T10:03:45Z) - How to Get Actual Privacy and Utility from Privacy Models: the k-Anonymity and Differential Privacy Families [3.9894389299295514]
プライバシモデルは、プライバシ保護データパブリッシングと統計開示制御に導入された。
定義に問題があるため、適切な保護保証の提供に失敗する可能性がある。
k-匿名性のセマンティックな再構築は、ユーティリティを失うことなく、より堅牢なプライバシを提供することができる、と我々は主張する。
論文 参考訳(メタデータ) (2025-10-13T11:41:12Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。