論文の概要: Towards practical differentially private causal graph discovery
- arxiv url: http://arxiv.org/abs/2006.08598v1
- Date: Mon, 15 Jun 2020 18:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 05:26:03.805600
- Title: Towards practical differentially private causal graph discovery
- Title(参考訳): 実用的微分的因果グラフ発見に向けて
- Authors: Lun Wang and Qi Pang and Dawn Song
- Abstract要約: 因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
そこで本稿では,Priv-PCによる個人用因果グラフ探索アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 74.7791110594082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal graph discovery refers to the process of discovering causal relation
graphs from purely observational data. Like other statistical data, a causal
graph might leak sensitive information about participants in the dataset. In
this paper, we present a differentially private causal graph discovery
algorithm, Priv-PC, which improves both utility and running time compared to
the state-of-the-art. The design of Priv-PC follows a novel paradigm called
sieve-and-examine which uses a small amount of privacy budget to filter out
"insignificant" queries, and leverages the remaining budget to obtain highly
accurate answers for the "significant" queries. We also conducted the first
sensitivity analysis for conditional independence tests including conditional
Kendall's tau and conditional Spearman's rho. We evaluated Priv-PC on 4 public
datasets and compared with the state-of-the-art. The results show that Priv-PC
achieves 10.61 to 32.85 times speedup and better utility.
- Abstract(参考訳): 因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
他の統計データと同様に、因果グラフはデータセットの参加者に関する機密情報を漏洩する可能性がある。
本稿では,実効時間と実行時間の両方を改善した,因果グラフ発見アルゴリズムpriv-pcを提案する。
Priv-PCの設計はSieve-and-examineと呼ばれる新しいパラダイムに従っており、これは少数のプライバシー予算を使って"重要"クエリをフィルタリングし、残りの予算を利用して"重要"クエリの高精度な回答を得る。
また,条件付きケンドールのタウや条件付きスピアマンのローを含む条件付き独立試験の初回感度分析を行った。
4つの公開データセット上でPriv-PCを評価し,現状と比較した。
その結果、Priv-PCは10.61倍から32.85倍のスピードアップを実現し、実用性も向上した。
関連論文リスト
- Locally Private Histograms in All Privacy Regimes [14.453502159917525]
中~下級のプライバシ体制において,局所的な私的ヒストグラムと,それに関連する分布学習課題について検討する。
我々は,従来のアルゴリズムと精度を一致させるが,メッセージや通信の複雑さが著しく向上した,局所的な微分プライバシーモデルにおけるヒストグラムのプロトコルを得る。
局所的な私的ヒストグラム問題において, 基板間の境界を改良した新しい解析結果から, 理論的知見が得られた。
論文 参考訳(メタデータ) (2024-08-09T06:22:45Z) - Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Differentially Private Topological Data Analysis [6.983833229285599]
微分プライベート(DP)トポロジカルデータ解析(TDA)を初めて試みる。
一般的に用いられるvCech複合体は、サンプルサイズがn$増加するにつれて低下しない感度を持つことを示す。
実用関数が$L1$-DTM持続図のボトルネック距離で定義される指数関数機構を用いる。
論文 参考訳(メタデータ) (2023-05-05T15:15:04Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。