論文の概要: Towards practical differentially private causal graph discovery
- arxiv url: http://arxiv.org/abs/2006.08598v1
- Date: Mon, 15 Jun 2020 18:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 05:26:03.805600
- Title: Towards practical differentially private causal graph discovery
- Title(参考訳): 実用的微分的因果グラフ発見に向けて
- Authors: Lun Wang and Qi Pang and Dawn Song
- Abstract要約: 因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
そこで本稿では,Priv-PCによる個人用因果グラフ探索アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 74.7791110594082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal graph discovery refers to the process of discovering causal relation
graphs from purely observational data. Like other statistical data, a causal
graph might leak sensitive information about participants in the dataset. In
this paper, we present a differentially private causal graph discovery
algorithm, Priv-PC, which improves both utility and running time compared to
the state-of-the-art. The design of Priv-PC follows a novel paradigm called
sieve-and-examine which uses a small amount of privacy budget to filter out
"insignificant" queries, and leverages the remaining budget to obtain highly
accurate answers for the "significant" queries. We also conducted the first
sensitivity analysis for conditional independence tests including conditional
Kendall's tau and conditional Spearman's rho. We evaluated Priv-PC on 4 public
datasets and compared with the state-of-the-art. The results show that Priv-PC
achieves 10.61 to 32.85 times speedup and better utility.
- Abstract(参考訳): 因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
他の統計データと同様に、因果グラフはデータセットの参加者に関する機密情報を漏洩する可能性がある。
本稿では,実効時間と実行時間の両方を改善した,因果グラフ発見アルゴリズムpriv-pcを提案する。
Priv-PCの設計はSieve-and-examineと呼ばれる新しいパラダイムに従っており、これは少数のプライバシー予算を使って"重要"クエリをフィルタリングし、残りの予算を利用して"重要"クエリの高精度な回答を得る。
また,条件付きケンドールのタウや条件付きスピアマンのローを含む条件付き独立試験の初回感度分析を行った。
4つの公開データセット上でPriv-PCを評価し,現状と比較した。
その結果、Priv-PCは10.61倍から32.85倍のスピードアップを実現し、実用性も向上した。
関連論文リスト
- Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - Causal Discovery Under Local Privacy [5.341901833426653]
ローカル差分プライバシーは、データプロバイダが個別にデータに民営化メカニズムを適用できる変種である。
局所的差分的私的メカニズムをよく知られており、それらが提供するプライバシと、アルゴリズムが因果学習のために生成する因果構造の正確性とのトレードオフを比較検討する。
論文 参考訳(メタデータ) (2023-11-07T14:44:27Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Causal Inference with Differentially Private (Clustered) Outcomes [10.08890668924377]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
データの任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Differentially Private Topological Data Analysis [6.983833229285599]
微分プライベート(DP)トポロジカルデータ解析(TDA)を初めて試みる。
一般的に用いられるvCech複合体は、サンプルサイズがn$増加するにつれて低下しない感度を持つことを示す。
実用関数が$L1$-DTM持続図のボトルネック距離で定義される指数関数機構を用いる。
論文 参考訳(メタデータ) (2023-05-05T15:15:04Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。