論文の概要: Differentially private multivariate medians
- arxiv url: http://arxiv.org/abs/2210.06459v2
- Date: Tue, 26 Mar 2024 16:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 02:09:26.873350
- Title: Differentially private multivariate medians
- Title(参考訳): 異なるプライベートな多変量中央値
- Authors: Kelly Ramsay, Aukosh Jagannath, Shoja'eddin Chenouri,
- Abstract要約: 差分的にプライベートな深度に基づく中央値に対する新しい有限サンプル性能保証法を開発した。
Cauchyの限界の下では、重み付けされた位置推定のコストがプライバシーのコストよりも高いことを示している。
- 参考スコア(独自算出の注目度): 4.588028371034407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical tools which satisfy rigorous privacy guarantees are necessary for modern data analysis. It is well-known that robustness against contamination is linked to differential privacy. Despite this fact, using multivariate medians for differentially private and robust multivariate location estimation has not been systematically studied. We develop novel finite-sample performance guarantees for differentially private multivariate depth-based medians, which are essentially sharp. Our results cover commonly used depth functions, such as the halfspace (or Tukey) depth, spatial depth, and the integrated dual depth. We show that under Cauchy marginals, the cost of heavy-tailed location estimation outweighs the cost of privacy. We demonstrate our results numerically using a Gaussian contamination model in dimensions up to d = 100, and compare them to a state-of-the-art private mean estimation algorithm. As a by-product of our investigation, we prove concentration inequalities for the output of the exponential mechanism about the maximizer of the population objective function. This bound applies to objective functions that satisfy a mild regularity condition.
- Abstract(参考訳): 最新のデータ分析には厳格なプライバシー保証を満たす統計ツールが必要である。
汚染に対する堅牢性は、差分プライバシーと結びついていることはよく知られている。
この事実にもかかわらず、微分プライベートかつロバストな多変量位置推定に多変量中央値を用いることは体系的に研究されていない。
我々は、本質的にシャープな、微分的にプライベートな多変量深度に基づく中央値に対する新しい有限サンプル性能保証を開発する。
この結果は、半空間(またはタキー)深度、空間深度、統合二重深度など、よく使われる深度関数をカバーしている。
Cauchyの限界の下では、重み付けされた位置推定のコストは、プライバシのコストよりも高いことを示している。
本稿では,d = 100までの大きさのガウス汚染モデルを用いて数値計算を行い,これを最先端のプライベート平均推定アルゴリズムと比較する。
本研究の副産物として,人口目標関数の最大化に関する指数的メカニズムの出力に対する濃度不等式を示す。
この境界は、穏やかな正則性条件を満たす客観的関数に適用される。
関連論文リスト
- Differentially private projection-depth-based medians [0.0]
提案・テスト・リリース(PTR)と指数的メカニズムを用いて,$(epsilon,delta)$-differentially private projection-depth-based mediansを開発した。
PTRにおけるテストが失敗する確率と、有限サンプル偏差境界によるプライバシコストを定量化する。
論文 参考訳(メタデータ) (2023-12-12T23:17:29Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - Featurized Density Ratio Estimation [82.40706152910292]
本研究では,2つの分布を推定前の共通特徴空間にマッピングするために,可逆生成モデルを活用することを提案する。
この偉業化は、学習された入力空間の密度比が任意に不正確な場合、潜在空間において密度が密接な関係をもたらす。
同時に、特徴写像の可逆性は、特徴空間で計算された比が入力空間で計算された比と同値であることを保証する。
論文 参考訳(メタデータ) (2021-07-05T18:30:26Z) - Robust and Differentially Private Mean Estimation [40.323756738056616]
異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
論文 参考訳(メタデータ) (2021-02-18T05:02:49Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z) - Designing Differentially Private Estimators in High Dimensions [0.0]
本研究では,高次元環境下での個人平均推定について検討する。
高次元ロバスト統計学における最近の研究で、計算的に抽出可能な平均推定アルゴリズムが特定されている。
論文 参考訳(メタデータ) (2020-06-02T21:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。