論文の概要: Private Minimum Hellinger Distance Estimation via Hellinger Distance Differential Privacy
- arxiv url: http://arxiv.org/abs/2501.14974v1
- Date: Fri, 24 Jan 2025 23:15:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:00.428204
- Title: Private Minimum Hellinger Distance Estimation via Hellinger Distance Differential Privacy
- Title(参考訳): ヘリンジャー距離差分プライバシによるプライベート・ミニマム・ヘリンジャー距離推定
- Authors: Fengnan Deng, Anand N. Vidyashankar,
- Abstract要約: ヘリンガー距離は最大極大法に代わる目的関数の導出に広く用いられている。
最近の規制のプライバシー要件によって動機付けられ、差分プライバシー制約を満たす推定器が導出されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Hellinger distance has been widely used to derive objective functions that are alternatives to maximum likelihood methods. Motivated by recent regulatory privacy requirements, estimators satisfying differential privacy constraints are being derived. In this paper, we describe different notions of privacy using divergences and establish that Hellinger distance minimizes the added variance within the class of power divergences for an additive Gaussian mechanism. We demonstrate that a new definition of privacy, namely Hellinger differential privacy, shares several features of the standard notion of differential privacy while allowing for sharper inference. Using these properties, we develop private versions of gradient descent and Newton-Raphson algorithms for obtaining private minimum Hellinger distance estimators, which are robust and first-order efficient. Using numerical experiments, we illustrate the finite sample performance and verify that they retain their robustness properties under gross-error contamination.
- Abstract(参考訳): ヘリンガー距離は最大極大法に代わる目的関数の導出に広く用いられている。
最近の規制のプライバシー要件によって動機付けられ、差分プライバシー制約を満たす推定器が導出されている。
本稿では,変分器を用いた異なるプライバシー概念を記述し,加法ガウス機構のための変分器のクラス内の変分器距離が最小になることを示す。
我々は、新しいプライバシーの定義、すなわちHellinger差分プライバシーが、よりシャープな推論を可能にしながら、標準的な差分プライバシーの概念のいくつかの特徴を共有していることを実証する。
これらの特性を用いて、安定で一階効率の良い最小ヘルジンガー距離推定器を得るために、勾配勾配勾配のプライベートバージョンとニュートン・ラフソンアルゴリズムを開発した。
数値実験を用いて, 有限試料の性能を概説し, 粗悪汚染下での剛性特性の維持を検証した。
関連論文リスト
- Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Tangent differential privacy [13.796981813494199]
我々は、接する差分プライバシーと呼ばれる新しいタイプの差分プライバシーを提案する。
データディストリビューション全体で一様に定義される通常の差分プライバシと比較すると、特定のデータ配信に合わせて、具体的な差分プライバシが調整される。
論文 参考訳(メタデータ) (2024-06-06T22:11:31Z) - Optimal Private Discrete Distribution Estimation with One-bit Communication [63.413106413939836]
1ビット通信制約を伴う個別分布推定問題を考える。
1ビット通信制約下での最悪のトレードオフの1次を特徴付ける。
これらの結果は,1ビット通信制約下でのプライバシユーティリティトレードオフの最適依存性を示す。
論文 参考訳(メタデータ) (2023-10-17T05:21:19Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。