論文の概要: Designing Differentially Private Estimators in High Dimensions
- arxiv url: http://arxiv.org/abs/2006.01944v3
- Date: Sat, 18 Jul 2020 17:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:13:06.178421
- Title: Designing Differentially Private Estimators in High Dimensions
- Title(参考訳): 高次元差分プライベート推定器の設計
- Authors: Aditya Dhar, Jason Huang
- Abstract要約: 本研究では,高次元環境下での個人平均推定について検討する。
高次元ロバスト統計学における最近の研究で、計算的に抽出可能な平均推定アルゴリズムが特定されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study differentially private mean estimation in a high-dimensional
setting. Existing differential privacy techniques applied to large dimensions
lead to computationally intractable problems or estimators with excessive
privacy loss. Recent work in high-dimensional robust statistics has identified
computationally tractable mean estimation algorithms with asymptotic
dimension-independent error guarantees. We incorporate these results to develop
a strict bound on the global sensitivity of the robust mean estimator. This
yields a computationally tractable algorithm for differentially private mean
estimation in high dimensions with dimension-independent privacy loss. Finally,
we show on synthetic data that our algorithm significantly outperforms classic
differential privacy methods, overcoming barriers to high-dimensional
differential privacy.
- Abstract(参考訳): 高次元環境下での個人平均推定について検討する。
大きな次元に適用される既存の差分プライバシー技術は、計算に難解な問題や過度のプライバシー損失を伴う推定子につながる。
高次元ロバスト統計学における最近の研究で、漸近次元非依存な誤り保証を持つ計算可能な平均推定アルゴリズムが特定されている。
これらの結果を取り込んで,ロバスト平均推定器のグローバル感度に厳格な拘束力を与える。
これにより、次元非依存なプライバシー損失を伴う高次元の微分プライベート平均推定のための計算可能なアルゴリズムが得られる。
最後に,本アルゴリズムが従来の差分プライバシー法を著しく上回り,高次元差分プライバシーの障壁を克服することを示す。
関連論文リスト
- Differentially Private Sliced Inverse Regression: Minimax Optimality and
Algorithm [16.14032140601778]
十分な次元削減の文脈において、プライバシー問題に対処するために設計された最適微分プライベートアルゴリズムを提案する。
我々は、対数係数まで最小限の下位境界を達成できる微分プライベートアルゴリズムを開発した。
自然な拡張として、微分プライベートスパース主成分分析に類似した下界と上界を容易に提供できる。
論文 参考訳(メタデータ) (2024-01-16T06:47:43Z) - Causal Inference with Differentially Private (Clustered) Outcomes [10.08890668924377]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
データの任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Robustness Implies Privacy in Statistical Estimation [17.339291516012644]
本研究では,高次元統計学における敵のプライバシーと差分プライバシーの関係について検討する。
プライバシーから堅牢性への最初のブラックボックスの削減は、最適なトレードオフを伴うプライベートな推定器を生み出すことができる。
我々のアルゴリズムは、逆向きに破損したサンプルの一定数に対して頑健である。
論文 参考訳(メタデータ) (2022-12-09T18:07:30Z) - On the Statistical Complexity of Estimation and Testing under Privacy
Constraints [0.0]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。