論文の概要: Private Minimum Hellinger Distance Estimation via Hellinger Distance Differential Privacy
- arxiv url: http://arxiv.org/abs/2501.14974v1
- Date: Fri, 24 Jan 2025 23:15:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:00.428204
- Title: Private Minimum Hellinger Distance Estimation via Hellinger Distance Differential Privacy
- Title(参考訳): ヘリンジャー距離差分プライバシによるプライベート・ミニマム・ヘリンジャー距離推定
- Authors: Fengnan Deng, Anand N. Vidyashankar,
- Abstract要約: ヘリンガー距離は最大極大法に代わる目的関数の導出に広く用いられている。
最近の規制のプライバシー要件によって動機付けられ、差分プライバシー制約を満たす推定器が導出されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Hellinger distance has been widely used to derive objective functions that are alternatives to maximum likelihood methods. Motivated by recent regulatory privacy requirements, estimators satisfying differential privacy constraints are being derived. In this paper, we describe different notions of privacy using divergences and establish that Hellinger distance minimizes the added variance within the class of power divergences for an additive Gaussian mechanism. We demonstrate that a new definition of privacy, namely Hellinger differential privacy, shares several features of the standard notion of differential privacy while allowing for sharper inference. Using these properties, we develop private versions of gradient descent and Newton-Raphson algorithms for obtaining private minimum Hellinger distance estimators, which are robust and first-order efficient. Using numerical experiments, we illustrate the finite sample performance and verify that they retain their robustness properties under gross-error contamination.
- Abstract(参考訳): ヘリンガー距離は最大極大法に代わる目的関数の導出に広く用いられている。
最近の規制のプライバシー要件によって動機付けられ、差分プライバシー制約を満たす推定器が導出されている。
本稿では,変分器を用いた異なるプライバシー概念を記述し,加法ガウス機構のための変分器のクラス内の変分器距離が最小になることを示す。
我々は、新しいプライバシーの定義、すなわちHellinger差分プライバシーが、よりシャープな推論を可能にしながら、標準的な差分プライバシーの概念のいくつかの特徴を共有していることを実証する。
これらの特性を用いて、安定で一階効率の良い最小ヘルジンガー距離推定器を得るために、勾配勾配勾配のプライベートバージョンとニュートン・ラフソンアルゴリズムを開発した。
数値実験を用いて, 有限試料の性能を概説し, 粗悪汚染下での剛性特性の維持を検証した。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Privacy-Preserving Set-Based Estimation Using Differential Privacy and Zonotopes [2.206168301581203]
大規模サイバー物理システムでは、状態推定を行うために空間分布センサの協調が必要であることが多い。
プライバシの懸念は、機密性の高い測定結果をクラウド推定器に開示することにある。
本稿では,推定集合における真の状態の保持と,感度測定のための差分プライバシーを保証する,差分プライベートな集合ベース推定プロトコルを提案する。
論文 参考訳(メタデータ) (2024-08-30T13:05:38Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Assessing Differentially Private Variational Autoencoders under
Membership Inference [26.480694390462617]
差分プライベートな変分オートエンコーダのプライバシーと精度のトレードオフを定量化し比較する。
変分オートエンコーダのプライバシーと精度のトレードオフを良好に観察することはめったになく,LCPがCDPを上回った事例を特定する。
論文 参考訳(メタデータ) (2022-04-16T21:53:09Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。