論文の概要: Using Participants' Utility Functions to Compare Versions of Differential Privacy
- arxiv url: http://arxiv.org/abs/2310.06258v1
- Date: Tue, 10 Oct 2023 02:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 02:42:56.397619
- Title: Using Participants' Utility Functions to Compare Versions of Differential Privacy
- Title(参考訳): 参加者のユーティリティ機能を用いた差別化プライバシの比較
- Authors: Nitin Kohli, Michael Carl Tschantz,
- Abstract要約: 期待されるユーティリティの変化は、古典的なユークリッド計量によって測定されるべきである。
潜在的な参加者のユーティリティ関数の性質は、$epsilon$と$delta$の特定の値とともに、どのプライバシー保証が望ましいかを大きく変えることができる。
- 参考スコア(独自算出の注目度): 1.541245035103301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use decision theory to compare variants of differential privacy from the perspective of prospective study participants. We posit the existence of a preference ordering on the set of potential consequences that study participants can incur, which enables the analysis of individual utility functions. Drawing upon the theory of measurement, we argue that changes in expected utilities should be measured via the classic Euclidean metric. We then consider the question of which privacy guarantees would be more appealing for individuals under different decision settings. Through our analysis, we found that the nature of the potential participant's utility function, along with the specific values of $\epsilon$ and $\delta$, can greatly alter which privacy guarantees are preferable.
- Abstract(参考訳): 我々は、意思決定理論を用いて、予測研究参加者の視点から、差分プライバシーの変種を比較する。
我々は、参加者が得る可能性のある潜在的な結果の集合に基づいて、選好順序の存在を仮定し、個々のユーティリティ機能の分析を可能にする。
測定理論に基づいて、期待されるユーティリティの変化は古典的ユークリッド計量によって測定されるべきであると主張する。
次に、異なる決定条件の下で、どのプライバシー保証がより魅力的かという問題を考察する。
分析の結果、潜在的な参加者のユーティリティ機能の性質と、$\epsilon$と$\delta$の具体的な値が、どのプライバシー保証が望ましいかを大きく変えられることがわかった。
関連論文リスト
- A Theoretical Analysis of Efficiency Constrained Utility-Privacy
Bi-Objective Optimization in Federated Learning [23.563789510998333]
フェデレートラーニング(FL)は、複数のクライアントが、個々のデータを共有せずに、共同で共有モデルを学ぶことを可能にする。
FLでは差別化プライバシが一般的なテクニックとして登場し、ユーティリティやトレーニング効率に影響を与えながら、個々のユーザデータのプライバシを保護する。
本稿ではDPFLにおける効率制約付きユーティリティプライバシ双目的最適化問題を体系的に定式化する。
論文 参考訳(メタデータ) (2023-12-27T12:37:55Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Towards Practical Differential Privacy in Data Analysis: Understanding
the Effect of Epsilon on Utility in Private ERM [20.447583964537717]
我々は、最もよく使われているデータ分析手法の一つであるプライベート実証リスク最小化(ERM)に焦点を当てる。
我々は,エプシロンが学習モデルの実用性に与える影響を理論的に探求することによって,問題の解決に向けた第一歩を踏み出す。
本稿では,エプシロンの任意の値の下で有効性を推定するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-06-06T08:20:17Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Fairness, Welfare, and Equity in Personalized Pricing [88.9134799076718]
顧客特性に基づくパーソナライズ価格における公平性、福祉、株式の配慮の相互作用について検討する。
選択ワクチンの価格補助金と、マイクロクレジットの下流結果に対するパーソナライズされた利率の影響の2つの設定において、パーソナライズされた価格の潜在的利点を示す。
論文 参考訳(メタデータ) (2020-12-21T01:01:56Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。