論文の概要: Two Views of Constrained Differential Privacy: Belief Revision and
Update
- arxiv url: http://arxiv.org/abs/2303.00228v1
- Date: Wed, 1 Mar 2023 04:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:00:51.182813
- Title: Two Views of Constrained Differential Privacy: Belief Revision and
Update
- Title(参考訳): 制約付き差分プライバシーの2つの見解:改訂と更新
- Authors: Likang Liu, Keke Sun, Chunlai Zhou, Yuan Feng
- Abstract要約: 制約付き微分プライベート(DP)機構を2つの視点で検討する。
制約DPは、l2距離の最小化後処理または投影に基づいて定義される。
本論文で確立した枠組みでは,制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
- 参考スコア(独自算出の注目度): 2.486115115477032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we provide two views of constrained differential private (DP)
mechanisms. The first one is as belief revision. A constrained DP mechanism is
obtained by standard probabilistic conditioning, and hence can be naturally
implemented by Monte Carlo algorithms. The other is as belief update. A
constrained DP is defined according to l2-distance minimization postprocessing
or projection and hence can be naturally implemented by optimization
algorithms. The main advantage of these two perspectives is that we can make
full use of the machinery of belief revision and update to show basic
properties for constrained differential privacy especially some important new
composition properties. Within the framework established in this paper,
constrained DP algorithms in the literature can be classified either as belief
revision or belief update. At the end of the paper, we demonstrate their
differences especially in utility in a couple of scenarios.
- Abstract(参考訳): 本稿では,制約付き微分プライベート(DP)機構について2つの考察を行う。
1つ目は信念の修正である。
制約付きDPメカニズムは標準確率的条件付けによって得られ、モンテカルロアルゴリズムによって自然に実装できる。
もう1つは信念の更新だ。
制約DPは、l2距離の最小化後処理や投影に基づいて定義され、最適化アルゴリズムによって自然に実装できる。
これら2つの観点の主な利点は、特に重要な新しい構成特性の制約された差分プライバシーの基本特性を示すために、信念修正の機械を最大限に活用できることである。
本論文で確立した枠組みでは,文献中の制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
論文の最後には,いくつかのシナリオにおいて,特に実用性における違いを実証する。
関連論文リスト
- Differential Privacy May Have a Potential Optimization Effect on Some
Swarm Intelligence Algorithms besides Privacy-preserving [7.470078805984174]
本稿では,一般の個人用Swarm Intelligence Algorithm framework (DPSIAF)を提案する。
この指数的なメカニズムに基づいて、このフレームワークは既存のSIアルゴリズムをプライベートバージョンに容易に開発することができる。
実験によると、私たちのプライベートアルゴリズムでは、そのパフォーマンスはプライバシ予算に厳密に影響されない。
論文 参考訳(メタデータ) (2023-06-30T02:15:02Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Differentially Private Counterfactuals via Functional Mechanism [47.606474009932825]
本稿では,デプロイされたモデルや説明セットに触れることなく,差分的プライベート・カウンティファクト(DPC)を生成する新しいフレームワークを提案する。
特に、ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し、次に潜伏プロトタイプからDPCを導出する。
論文 参考訳(メタデータ) (2022-08-04T20:31:22Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z) - Practical Privacy Filters and Odometers with R\'enyi Differential
Privacy and Applications to Differentially Private Deep Learning [0.0]
我々はR'enyi Differential Privacyのレンズを通して、適応的なプライバシー予算の下でDP組成を研究します。
より単純な合成定理をより小さい定数で証明し、アルゴリズム設計に十分な実用性を与える。
論文 参考訳(メタデータ) (2021-03-02T00:37:11Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。