論文の概要: Private measurement of nonlinear correlations between data hosted across
multiple parties
- arxiv url: http://arxiv.org/abs/2110.09670v1
- Date: Tue, 19 Oct 2021 00:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 01:39:36.553971
- Title: Private measurement of nonlinear correlations between data hosted across
multiple parties
- Title(参考訳): 複数のパーティにまたがるデータ間の非線形相関のプライベート測定
- Authors: Praneeth Vepakomma, Subha Nawer Pushpita, Ramesh Raskar
- Abstract要約: 2つのエンティティにまたがる機密データ間の非線形相関を計測する微分プライベート手法を提案する。
この研究は、プライベートフィーチャースクリーニング、プライベートインデペンデントテスト、プライベートkサンプルテスト、プライベートマルチパーティ因果推論、プライベートデータ合成に直接適用することができる。
- 参考スコア(独自算出の注目度): 14.93584434176082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a differentially private method to measure nonlinear
correlations between sensitive data hosted across two entities. We provide
utility guarantees of our private estimator. Ours is the first such private
estimator of nonlinear correlations, to the best of our knowledge within a
multi-party setup. The important measure of nonlinear correlation we consider
is distance correlation. This work has direct applications to private feature
screening, private independence testing, private k-sample tests, private
multi-party causal inference and private data synthesis in addition to
exploratory data analysis. Code access: A link to publicly access the code is
provided in the supplementary file.
- Abstract(参考訳): 2つのエンティティにまたがる機密データ間の非線形相関を計測する微分プライベート手法を提案する。
個人的推定器の公益保証を提供する。
非線形相関のそのようなプライベートな推定器は、マルチパーティの設定において、私たちの知識の最高のものとなる。
非線形相関の重要な尺度は距離相関である。
この研究は、プライベート機能スクリーニング、プライベート独立テスト、プライベートkサンプルテスト、プライベートマルチパーティ因果推論、プライベートデータ合成、探索データ分析への直接的な応用がある。
コードアクセス: コードにパブリックアクセスするためのリンクは、補足ファイルで提供される。
関連論文リスト
- Differentially Private Covariate Balancing Causal Inference [8.133739801185271]
差分プライバシーは、プライバシー保護のための主要な数学的枠組みである。
我々のアルゴリズムは、所定のプライバシー予算の下で、整合性やレート最適性などの統計的保証のある点推定と区間推定の両方を生成する。
論文 参考訳(メタデータ) (2024-10-18T18:02:13Z) - Empirical Mean and Frequency Estimation Under Heterogeneous Privacy: A Worst-Case Analysis [5.755004576310333]
微分プライバシー(DP)は、現在プライバシーを測定するための金の標準である。
異種プライバシー制約を考慮した一変量データに対する経験的平均推定とカテゴリーデータに対する周波数推定の問題点を考察する。
提案アルゴリズムは,PAC誤差と平均二乗誤差の両面から最適性を証明し,他のベースライン手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-15T22:46:02Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Differentially Private Confidence Intervals for Proportions under Stratified Random Sampling [14.066813980992132]
データプライバシの意識の高まりに伴い、プライベートバージョンの信頼区間の開発が注目されている。
最近の研究は個人的信頼区間で行われているが、個人的信頼区間では厳密な方法論が研究されていない。
階層化されたランダムサンプリングの下で,信頼区間を構成するための3つの差分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-19T21:25:41Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private independence testing across two parties [21.236868468146348]
$pi$-testは、複数のパーティに分散したデータ間の統計的独立性をテストするための、プライバシ保護アルゴリズムである。
差分プライベートテストの有用性に基づいて,加法的および乗法的エラー境界を確立する。
論文 参考訳(メタデータ) (2022-07-08T02:13:05Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Towards practical differentially private causal graph discovery [74.7791110594082]
因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
そこで本稿では,Priv-PCによる個人用因果グラフ探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-15T18:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。