論文の概要: Understanding Disclosure Risk in Differential Privacy with Applications to Noise Calibration and Auditing (Extended Version)
- arxiv url: http://arxiv.org/abs/2603.12142v1
- Date: Thu, 12 Mar 2026 16:43:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.223309
- Title: Understanding Disclosure Risk in Differential Privacy with Applications to Noise Calibration and Auditing (Extended Version)
- Title(参考訳): 識別プライバシーにおける開示リスクの理解と騒音校正・監査への応用(拡張版)
- Authors: Patricia Guerra-Balboa, Annika Sauer, Héber H. Arcolezi, Thorsten Strufe,
- Abstract要約: 本稿では、メンバシップ推論、属性推論、データ再構成のリスクを常に捕捉する統合リスク指標である、再構築の利点を紹介する。
我々は、DPノイズと敵対的優位性を関連付ける厳密な境界を導出し、任意のDPメカニズムと攻撃者の知識に対する最適な敵戦略を特徴づける。
本研究では,DP 対応データ管理システムにおいて,DP 監査の精度と範囲を向上し,より効果的なユーティリティ・プライバシ・トレードオフを実現する。
- 参考スコア(独自算出の注目度): 3.497537146514306
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differential Privacy (DP) is widely adopted in data management systems to enable data sharing with formal disclosure guarantees. A central systems challenge is understanding how DP noise translates into effective protection against inference attacks, since this directly determines achievable utility. Most existing analyses focus only on membership inference -- capturing only a threat -- or rely on reconstruction robustness (ReRo). However, under realistic assumptions, we show that ReRo can yield misleading risk estimates and violate claimed bounds, limiting their usefulness for principled DP calibration and auditing. This paper introduces reconstruction advantage, a unified risk metric that consistently captures risk across membership inference, attribute inference, and data reconstruction. We derive tight bounds that relate DP noise to adversarial advantage and characterize optimal adversarial strategies for arbitrary DP mechanisms and attacker knowledge. These results enable risk-driven noise calibration and provide a foundation for systematic DP auditing. We show that reconstruction advantage improves the accuracy and scope of DP auditing and enables more effective utility-privacy trade-offs in DP-enabled data management systems.
- Abstract(参考訳): 差分プライバシー(DP)は、正式な開示保証を伴うデータ共有を可能にするために、データ管理システムにおいて広く採用されている。
中心的なシステム課題は、DPノイズが推論攻撃に対する効果的な防御にどのように変換されるかを理解することである。
既存の分析のほとんどは、メンバシップ推論(脅威のみをキャプチャする)のみに焦点を当てているか、あるいは再構築堅牢性(ReRo)に依存している。
しかし, 現実的な仮定では, ReRo が誤ったリスク推定を導出し, 要求境界を侵害し, 原則的DP校正と監査に有効性を制限できることが示されている。
本稿では、メンバシップ推論、属性推論、データ再構成のリスクを常に捕捉する統合リスク指標である、再構築の利点を紹介する。
我々は、DPノイズと敵対的優位性を関連付ける厳密な境界を導出し、任意のDPメカニズムと攻撃者の知識に対する最適な敵戦略を特徴づける。
これらの結果により、リスク駆動型ノイズ校正が可能となり、体系的なDP監査の基礎となる。
本研究では,DP 対応データ管理システムにおいて,DP 監査の精度と範囲を向上し,より効果的なユーティリティ・プライバシ・トレードオフを実現する。
関連論文リスト
- Exploring the Integration of Differential Privacy in Cybersecurity Analytics: Balancing Data Utility and Privacy in Threat Intelligence [0.0]
本稿では,サイバーセキュリティ分析における差別化プライバシ(DP)の実装について考察する。
DPはデータ出力に制御されたノイズを加えることでプライバシを確保し、機密情報の開示を避ける。
本稿では、サイバーセキュリティ分野におけるプライバシー保護分析を改善するための鍵となる戦略の一つとして、DPを挙げる。
論文 参考訳(メタデータ) (2026-01-01T16:31:47Z) - RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries [17.780319275883127]
差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-10T20:36:31Z) - Unifying Re-Identification, Attribute Inference, and Data Reconstruction Risks in Differential Privacy [24.723577119566112]
攻撃成功のバウンダリは、再識別、属性推論、データ再構成リスクにまたがって、同一の統一形式をとることができることを示す。
この結果は, $varepsilon$-DP, R'enyi DP, および集中DPを用いた従来の方法よりも厳密である。
論文 参考訳(メタデータ) (2025-07-09T15:59:30Z) - Verifiable Exponential Mechanism for Median Estimation [4.083860866484599]
本稿では,zk-SNARKを用いた指数関数機構の最初の検証実装を提案する。
具体的応用として、最初の検証可能な微分プライベート(DP)中央値推定法を示す。
論文 参考訳(メタデータ) (2025-05-22T05:31:22Z) - Enhancing Privacy in Semantic Communication over Wiretap Channels leveraging Differential Privacy [51.028047763426265]
セマンティック通信(SemCom)は,タスク関連情報に着目して伝送効率を向上させる。
セマンティックリッチなデータをセキュアでないチャネルで送信すると、プライバシのリスクが生じる。
本稿では,セマンティックなセマンティックな特徴を保護するために,差分プライバシー機構を統合した新しいSemComフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T08:42:44Z) - Visual Privacy Auditing with Diffusion Models [47.0700328585184]
拡散モデル (DM) に基づく再構成攻撃を導入し, 現実画像への逆アクセスを前提としている。
その結果,(1) 実世界の過去のデータが再建の成功に大きく影響していること,(2) 現在の再建境界は, 過去のデータによるリスクをうまくモデル化せず, DMは, プライバシー漏洩を可視化するための監査ツールとして機能することがわかった。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。