論文の概要: Balancing the privacy-utility trade-off: How to draw reliable conclusions from private data
- arxiv url: http://arxiv.org/abs/2603.12753v1
- Date: Fri, 13 Mar 2026 07:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.983172
- Title: Balancing the privacy-utility trade-off: How to draw reliable conclusions from private data
- Title(参考訳): プライバシーとユーティリティのトレードオフのバランスをとる: プライベートデータから信頼できる結論を引き出す方法
- Authors: Raphaël de Fondeville,
- Abstract要約: 本稿では,仮説テストに基づくプライバシ・ユーティリティ・トレードオフの新しい解釈を提案する。
実験結果の統計的意義を評価するためによく用いられる仮説テストに対するDPの影響を調べたところ,DPは解析的妥当性に影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 0.7252027234425333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Absolute anonymization, conceived as an irreversible transformation that prevents re-identification and sensitive value disclosure, has proven to be a broken promise. Consequently, modern data protection must shift toward a privacy-utility trade-off grounded in risk mitigation. Differential Privacy (DP) offers a rigorous mathematical framework for balancing quantified disclosure risk with analytical usefulness. Nevertheless, widespread adoption remains limited, largely because effective translation of complex technical concepts, such as privacy-loss parameters, into forms meaningful to non-technical stakeholders has yet to be achieved. This difficulty arises from the inherent use of randomization: both legitimate analysts and potential adversaries must draw conclusions from uncertain observations rather than deterministic values. In this work, we propose a new interpretation of the privacy-utility trade-off based on hypothesis testing. This perspective explicitly accounts for the uncertainty introduced by randomized mechanisms in both membership inference scenarios and general data analysis. In particular, we introduce the concept of relative disclosure risk to quantify the maximum reduction in uncertainty an adversary can obtain from protected outputs, and we show that this measure is directly related to standard privacy-loss parameters. At the same time, we analyze how DP affects analytical validity by studying its impact on hypothesis tests commonly used to assess the statistical significance of empirical results. Finally, we provide practical guidance, accessible to non-experts, for navigating the privacy-utility trade-off, aiding in the selection of suitable protection mechanisms and the values for the privacy-loss parameters.
- Abstract(参考訳): 絶対的な匿名化は、再識別と機密性の高い価値開示を妨げる不可逆的な変換として考えられているが、これは破滅的な約束であると証明されている。
その結果、現代のデータ保護は、リスク軽減の根底にあるプライバシーとユーティリティのトレードオフへとシフトしなければならない。
微分プライバシー(DP)は、定量化開示リスクと分析的有用性のバランスをとるための厳密な数学的枠組みを提供する。
しかし、プライバシロスパラメータのような複雑な技術概念を非技術ステークホルダーにとって意味のある形式に効果的に翻訳したことが主な理由として、広く採用されていることは依然として限られている。
正当性のあるアナリストと潜在的な敵は、決定論的値よりも不確定な観測から結論を引き出す必要がある。
本研究では,仮説テストに基づくプライバシ・ユーティリティ・トレードオフの新たな解釈を提案する。
この観点は、メンバシップ推論シナリオと一般的なデータ分析の両方においてランダム化メカニズムによって導入された不確実性を明示的に説明する。
特に、保護された出力から敵が得る不確実性の最大化を定量化するために、相対開示リスクの概念を導入し、この尺度が標準プライバシロスパラメータに直接関係していることを示します。
同時に,DPが実験結果の統計的意義を評価するのによく用いられる仮説テストへの影響を調べたところ,DPが分析正当性にどのように影響するかを分析した。
最後に、プライバシ・ユーティリティのトレードオフをナビゲートし、適切な保護メカニズムの選択とプライバシ・ロスパラメータの値の選定を支援するための実践的なガイダンスを提供する。
関連論文リスト
- Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - SConU: Selective Conformal Uncertainty in Large Language Models [59.25881667640868]
SconU(Selective Conformal Uncertainity)と呼ばれる新しいアプローチを提案する。
我々は,特定の管理可能なリスクレベルで設定されたキャリブレーションの不確実性分布から,与えられたサンプルが逸脱するかどうかを決定するのに役立つ2つの共形p値を開発する。
我々のアプローチは、単一ドメインと学際的コンテキストの両方にわたる誤発見率の厳密な管理を促進するだけでなく、予測の効率を高める。
論文 参考訳(メタデータ) (2025-04-19T03:01:45Z) - An applied Perspective: Estimating the Differential Identifiability Risk of an Exemplary SOEP Data Set [2.66269503676104]
基本的統計的クエリの集合に対して,リスクメトリックを効率的に計算する方法を示す。
実世界の科学的データセットに基づいた実証分析は、現実的な条件下でのリスクの計算方法に関する知識を拡大します。
論文 参考訳(メタデータ) (2024-07-04T17:50:55Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Simulation-based Bayesian Inference from Privacy Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - An In-Depth Examination of Requirements for Disclosure Risk Assessment [6.0631983658449435]
我々は、開示リスクを定量化する提案は、事前に特定された客観的基準に基づいて行うべきであると論じる。
本稿では,この手法をデシラタを用いて絶対開示リスクフレームワークの評価を行う。
すべてのデシデラタを満たすことは不可能であるが、反実比較が最も満足すると結論付けている。
論文 参考訳(メタデータ) (2023-10-13T20:36:29Z) - On the Query Complexity of Training Data Reconstruction in Private
Learning [0.0]
我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
論文 参考訳(メタデータ) (2023-03-29T00:49:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Information-Theoretic Safe Exploration with Gaussian Processes [89.31922008981735]
未知の(安全でない)制約に反するパラメータを評価できないような、逐次的な意思決定タスクについて検討する。
現在のほとんどのメソッドはドメインの離散化に依存しており、連続ケースに直接拡張することはできない。
本稿では,GP後部を直接利用して,最も情報に富む安全なパラメータを識別する情報理論的安全な探索基準を提案する。
論文 参考訳(メタデータ) (2022-12-09T15:23:58Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。