論文の概要: Setting $\varepsilon$ is not the Issue in Differential Privacy
- arxiv url: http://arxiv.org/abs/2511.06305v1
- Date: Sun, 09 Nov 2025 10:03:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.877537
- Title: Setting $\varepsilon$ is not the Issue in Differential Privacy
- Title(参考訳): 差分プライバシーの問題は、$\varepsilon$の設定ではない
- Authors: Edwige Cyffers,
- Abstract要約: プライバシー予算を解釈するいわゆる問題は、ディファレンシャル・プライバシの広く採用される大きな障害としてしばしば提示される。
プライバシー予算の解釈の難しさは、差分プライバシーの定義自体に起因していないと我々は主張する。
我々は、現在の研究状況を考えると、プライバシーリスクを推定するための健全な手法は、差分プライバシーフレームワーク内で表現可能であるべきだと主張している。
- 参考スコア(独自算出の注目度): 7.347270525437453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper argues that setting the privacy budget in differential privacy should not be viewed as an important limitation of differential privacy compared to alternative methods for privacy-preserving machine learning. The so-called problem of interpreting the privacy budget is often presented as a major hindrance to the wider adoption of differential privacy in real-world deployments and is sometimes used to promote alternative mitigation techniques for data protection. We believe this misleads decision-makers into choosing unsafe methods. We argue that the difficulty in interpreting privacy budgets does not stem from the definition of differential privacy itself, but from the intrinsic difficulty of estimating privacy risks in context, a challenge that any rigorous method for privacy risk assessment face. Moreover, we claim that any sound method for estimating privacy risks should, given the current state of research, be expressible within the differential privacy framework or justify why it cannot.
- Abstract(参考訳): このポジションペーパーでは、プライバシを差分プライバシーに設定することは、プライバシを保存する機械学習の代替手法と比較して、差分プライバシーの重要な制限と見なすべきではない、と論じている。
いわゆるプライバシ予算を解釈する問題は、現実のデプロイメントにおいてディファレンシャルプライバシが広く採用される際の大きな障害として示され、データ保護のための代替緩和技術を促進するために使われることもある。
これは、意思決定者が安全でない方法を選択することを誤解させるものだと信じています。
プライバシー予算の解釈の難しさは、差分プライバシーの定義自体が原因ではなく、プライバシーリスクを文脈で見積もることの本質的な困難が原因であり、プライバシーリスク評価の厳密な方法が直面する課題である。
さらに、現在の研究状況を考えると、プライバシーリスクを推定するための健全な手法は、差分プライバシーフレームワーク内で表現可能であるか、なぜそれができないのかを正当化すべきであると主張する。
関連論文リスト
- How to Get Actual Privacy and Utility from Privacy Models: the k-Anonymity and Differential Privacy Families [3.9894389299295514]
プライバシモデルは、プライバシ保護データパブリッシングと統計開示制御に導入された。
定義に問題があるため、適切な保護保証の提供に失敗する可能性がある。
k-匿名性のセマンティックな再構築は、ユーティリティを失うことなく、より堅牢なプライバシを提供することができる、と我々は主張する。
論文 参考訳(メタデータ) (2025-10-13T11:41:12Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Privately Publishable Per-instance Privacy [21.775752827149383]
客観的摂動によるパーソナライズドプライバシの損失を,pDP(Per-instance differential privacy)を用いてプライベートに共有する方法を検討する。
客観的な摂動によって学習したプライベートな経験的リスク最小化器をリリースする際のインスタンスごとのプライバシ損失を解析し、プライバシコストをほとんど必要とせず、個人的かつ正確にPDP損失を公表するための一連の方法を提案する。
論文 参考訳(メタデータ) (2021-11-03T15:17:29Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differential Privacy at Risk: Bridging Randomness and Privacy Budget [5.393465689287103]
我々は、ノイズ分布によって引き起こされる明示的ランダム性や、データ生成によって引き起こされる暗黙的ランダム性など、ランダム性源の役割を分析する。
プライバシ保存機構の確率的校正であるリスクのあるプライバシを提案する。
コスト最適プライバシを用いたコンポジションは,従来の高度なコンポジションよりも強力なプライバシ保証を提供することを示す。
論文 参考訳(メタデータ) (2020-03-02T15:44:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。