論文の概要: Two Views of Constrained Differential Privacy: Belief Revision and
Update
- arxiv url: http://arxiv.org/abs/2303.00228v1
- Date: Wed, 1 Mar 2023 04:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:00:51.182813
- Title: Two Views of Constrained Differential Privacy: Belief Revision and
Update
- Title(参考訳): 制約付き差分プライバシーの2つの見解:改訂と更新
- Authors: Likang Liu, Keke Sun, Chunlai Zhou, Yuan Feng
- Abstract要約: 制約付き微分プライベート(DP)機構を2つの視点で検討する。
制約DPは、l2距離の最小化後処理または投影に基づいて定義される。
本論文で確立した枠組みでは,制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
- 参考スコア(独自算出の注目度): 2.486115115477032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we provide two views of constrained differential private (DP)
mechanisms. The first one is as belief revision. A constrained DP mechanism is
obtained by standard probabilistic conditioning, and hence can be naturally
implemented by Monte Carlo algorithms. The other is as belief update. A
constrained DP is defined according to l2-distance minimization postprocessing
or projection and hence can be naturally implemented by optimization
algorithms. The main advantage of these two perspectives is that we can make
full use of the machinery of belief revision and update to show basic
properties for constrained differential privacy especially some important new
composition properties. Within the framework established in this paper,
constrained DP algorithms in the literature can be classified either as belief
revision or belief update. At the end of the paper, we demonstrate their
differences especially in utility in a couple of scenarios.
- Abstract(参考訳): 本稿では,制約付き微分プライベート(DP)機構について2つの考察を行う。
1つ目は信念の修正である。
制約付きDPメカニズムは標準確率的条件付けによって得られ、モンテカルロアルゴリズムによって自然に実装できる。
もう1つは信念の更新だ。
制約DPは、l2距離の最小化後処理や投影に基づいて定義され、最適化アルゴリズムによって自然に実装できる。
これら2つの観点の主な利点は、特に重要な新しい構成特性の制約された差分プライバシーの基本特性を示すために、信念修正の機械を最大限に活用できることである。
本論文で確立した枠組みでは,文献中の制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
論文の最後には,いくつかのシナリオにおいて,特に実用性における違いを実証する。
関連論文リスト
- Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Composition in Differential Privacy for General Granularity Notions (Long Version) [2.933288589449038]
一般のフレームワークにおける差分プライバシ(DP)の構成可能性や,データドメインや近傍の定義について検討する。
我々の定理は、並列およびシーケンシャルな構成設定の両方をカバーする。重要な点として、それらの間にあるすべての設定をカバーし、構成の最終的なプライバシ損失を、精度を大幅に向上して計算することができる。
論文 参考訳(メタデータ) (2023-08-28T15:21:16Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Differentially Private Counterfactuals via Functional Mechanism [47.606474009932825]
本稿では,デプロイされたモデルや説明セットに触れることなく,差分的プライベート・カウンティファクト(DPC)を生成する新しいフレームワークを提案する。
特に、ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し、次に潜伏プロトタイプからDPCを導出する。
論文 参考訳(メタデータ) (2022-08-04T20:31:22Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Are We There Yet? Timing and Floating-Point Attacks on Differential Privacy Systems [18.396937775602808]
微分プライベート(DP)システムでよく用いられる雑音発生における2つの実装欠陥について検討する。
まず,浮動小数点表現攻撃に対するガウス機構の感受性について検討する。
第二に、別のチャネルに苦しむラプラスとガウスのメカニズムを個別に研究する。
論文 参考訳(メタデータ) (2021-12-10T02:57:01Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Practical Privacy Filters and Odometers with R\'enyi Differential
Privacy and Applications to Differentially Private Deep Learning [0.0]
我々はR'enyi Differential Privacyのレンズを通して、適応的なプライバシー予算の下でDP組成を研究します。
より単純な合成定理をより小さい定数で証明し、アルゴリズム設計に十分な実用性を与える。
論文 参考訳(メタデータ) (2021-03-02T00:37:11Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。