論文の概要: Two Views of Constrained Differential Privacy: Belief Revision and
Update
- arxiv url: http://arxiv.org/abs/2303.00228v1
- Date: Wed, 1 Mar 2023 04:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:00:51.182813
- Title: Two Views of Constrained Differential Privacy: Belief Revision and
Update
- Title(参考訳): 制約付き差分プライバシーの2つの見解:改訂と更新
- Authors: Likang Liu, Keke Sun, Chunlai Zhou, Yuan Feng
- Abstract要約: 制約付き微分プライベート(DP)機構を2つの視点で検討する。
制約DPは、l2距離の最小化後処理または投影に基づいて定義される。
本論文で確立した枠組みでは,制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
- 参考スコア(独自算出の注目度): 2.486115115477032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we provide two views of constrained differential private (DP)
mechanisms. The first one is as belief revision. A constrained DP mechanism is
obtained by standard probabilistic conditioning, and hence can be naturally
implemented by Monte Carlo algorithms. The other is as belief update. A
constrained DP is defined according to l2-distance minimization postprocessing
or projection and hence can be naturally implemented by optimization
algorithms. The main advantage of these two perspectives is that we can make
full use of the machinery of belief revision and update to show basic
properties for constrained differential privacy especially some important new
composition properties. Within the framework established in this paper,
constrained DP algorithms in the literature can be classified either as belief
revision or belief update. At the end of the paper, we demonstrate their
differences especially in utility in a couple of scenarios.
- Abstract(参考訳): 本稿では,制約付き微分プライベート(DP)機構について2つの考察を行う。
1つ目は信念の修正である。
制約付きDPメカニズムは標準確率的条件付けによって得られ、モンテカルロアルゴリズムによって自然に実装できる。
もう1つは信念の更新だ。
制約DPは、l2距離の最小化後処理や投影に基づいて定義され、最適化アルゴリズムによって自然に実装できる。
これら2つの観点の主な利点は、特に重要な新しい構成特性の制約された差分プライバシーの基本特性を示すために、信念修正の機械を最大限に活用できることである。
本論文で確立した枠組みでは,文献中の制約付きDPアルゴリズムを信念修正あるいは信念更新と分類することができる。
論文の最後には,いくつかのシナリオにおいて,特に実用性における違いを実証する。
関連論文リスト
- Smoothed Normalization for Efficient Distributed Private Optimization [54.197255548244705]
フェデレートされた学習は、参加者のプライバシを備えた機械学習モデルを可能にする。
トレーニングやフィードバックのない問題に対して、差分にプライベートな分散手法は存在しない。
証明可能な収束保証付き分散アルゴリズム$alpha$-$sf NormEC$を導入する。
論文 参考訳(メタデータ) (2025-02-19T07:10:32Z) - Comparing privacy notions for protection against reconstruction attacks in machine learning [10.466570297146953]
機械学習コミュニティでは、再構築攻撃が主要な関心事であり、統合学習(FL)においても特定されている。
これらの脅威に対して、プライバシーコミュニティは、DP-SGDと呼ばれる勾配降下アルゴリズムにおける差分プライバシー(DP)の使用を推奨している。
本稿では,プライバシ保証の異なる概念とメカニズムを比較するための基礎的枠組みを構築した。
論文 参考訳(メタデータ) (2025-02-06T13:04:25Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Composition in Differential Privacy for General Granularity Notions (Long Version) [2.933288589449038]
一般のフレームワークにおける差分プライバシ(DP)の構成可能性や,データドメインや近傍の定義について検討する。
我々の定理は、並列およびシーケンシャルな構成設定の両方をカバーする。重要な点として、それらの間にあるすべての設定をカバーし、構成の最終的なプライバシ損失を、精度を大幅に向上して計算することができる。
論文 参考訳(メタデータ) (2023-08-28T15:21:16Z) - Differentially Private Counterfactuals via Functional Mechanism [47.606474009932825]
本稿では,デプロイされたモデルや説明セットに触れることなく,差分的プライベート・カウンティファクト(DPC)を生成する新しいフレームワークを提案する。
特に、ノイズの多いクラスプロトタイプを構築するための機能機構を備えたオートエンコーダを訓練し、次に潜伏プロトタイプからDPCを導出する。
論文 参考訳(メタデータ) (2022-08-04T20:31:22Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Practical Privacy Filters and Odometers with R\'enyi Differential
Privacy and Applications to Differentially Private Deep Learning [0.0]
我々はR'enyi Differential Privacyのレンズを通して、適応的なプライバシー予算の下でDP組成を研究します。
より単純な合成定理をより小さい定数で証明し、アルゴリズム設計に十分な実用性を与える。
論文 参考訳(メタデータ) (2021-03-02T00:37:11Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。