論文の概要: Algorithms with More Granular Differential Privacy Guarantees
- arxiv url: http://arxiv.org/abs/2209.04053v1
- Date: Thu, 8 Sep 2022 22:43:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 13:14:16.380027
- Title: Algorithms with More Granular Differential Privacy Guarantees
- Title(参考訳): より粒度の異なるプライバシー保証を持つアルゴリズム
- Authors: Badih Ghazi, Ravi Kumar, Pasin Manurangsi, Thomas Steinke
- Abstract要約: 我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
- 参考スコア(独自算出の注目度): 65.3684804101664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is often applied with a privacy parameter that is larger
than the theory suggests is ideal; various informal justifications for
tolerating large privacy parameters have been proposed. In this work, we
consider partial differential privacy (DP), which allows quantifying the
privacy guarantee on a per-attribute basis. In this framework, we study several
basic data analysis and learning tasks, and design algorithms whose
per-attribute privacy parameter is smaller that the best possible privacy
parameter for the entire record of a person (i.e., all the attributes).
- Abstract(参考訳): 差分プライバシーはしばしば、理論が示唆するよりも大きいプライバシーパラメータで適用され、大きなプライバシーパラメータを許容するための様々な非公式な正当化が提案されている。
本研究では,パーシャルディファレンシャルプライバシ(DP)について考察し,属性ごとのプライバシ保証を定量化する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが,個人のレコード全体(すなわちすべての属性)のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Revisiting Differentially Private Hyper-parameter Tuning [20.278323915802805]
最近の研究はチューニングプロセスに汎用的なプライベートセレクションソリューションを提案するが、根本的な疑問が残る。
本稿では,この問題について詳細に検討する。
以上の結果から, 厳密な監査設定下においても, 現在の理論的プライバシー境界と経験的バウンダリとの間には, かなりのギャップがあることが示唆された。
論文 参考訳(メタデータ) (2024-02-20T15:29:49Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Mean Estimation Under Heterogeneous Privacy: Some Privacy Can Be Free [13.198689566654103]
本研究は,異種差分プライバシー制約に基づく平均推定の問題について考察する。
提案するアルゴリズムは,プライバシレベルが異なる2つのユーザグループが存在する場合に,ミニマックス最適であることが示されている。
論文 参考訳(メタデータ) (2023-04-27T05:23:06Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - When differential privacy meets NLP: The devil is in the detail [3.5503507997334958]
テキストの書き直しのための微分プライベート自動エンコーダであるADePTの形式解析を行う。
以上の結果から,ADePTは差分プライベートではないことが判明した。
論文 参考訳(メタデータ) (2021-09-07T16:12:25Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。