論文の概要: Private Minimum Hellinger Distance Estimation via Hellinger Distance Differential Privacy
- arxiv url: http://arxiv.org/abs/2501.14974v2
- Date: Fri, 07 Feb 2025 00:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:53:47.322878
- Title: Private Minimum Hellinger Distance Estimation via Hellinger Distance Differential Privacy
- Title(参考訳): ヘリンジャー距離差分プライバシによるプライベート・ミニマム・ヘリンジャー距離推定
- Authors: Fengnan Deng, Anand N. Vidyashankar,
- Abstract要約: Hellinger 距離に基づく目的関数はモデルパラメータの頑健かつ効率的な推定器を生成する。
現代のアプリケーションで発生するプライバシーと規制要件に動機付けられ,本論文を導出する。
推定者は、新しいプライバシー制約、すなわちHellinger差分プライバシーを満たすと同時に、堅牢性と効率性を保っている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Objective functions based on Hellinger distance yield robust and efficient estimators of model parameters. Motivated by privacy and regulatory requirements encountered in contemporary applications, we derive in this paper \emph{private minimum Hellinger distance estimators}. The estimators satisfy a new privacy constraint, namely, Hellinger differential privacy, while retaining the robustness and efficiency properties. We demonstrate that Hellinger differential privacy shares several features of standard differential privacy while allowing for sharper inference. Additionally, for computational purposes, we also develop Hellinger differentially private gradient descent and Newton-Raphson algorithms. We illustrate the behavior of our estimators in finite samples using numerical experiments and verify that they retain robustness properties under gross-error contamination.
- Abstract(参考訳): Hellinger 距離に基づく目的関数はモデルパラメータの頑健かつ効率的な推定器を生成する。
現代のアプリケーションで発生するプライバシーと規制要件によって動機づけられたこの論文は、"emph{private minimum Hellinger distance estimator}"で導かれる。
推定者は、新しいプライバシー制約、すなわちHellinger差分プライバシーを満たすと同時に、堅牢性と効率性を保っている。
我々は、Hellinger差分プライバシーが標準差分プライバシーのいくつかの特徴を共有し、よりシャープな推論を可能にしていることを示した。
さらに、計算目的のために、Hellinger微分プライベート勾配降下法とNewton-Raphsonアルゴリズムも開発する。
本研究では, 有限試料中の推定器の挙動を数値実験により明らかにし, 耐震性の評価を行った。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Privacy-Preserving Set-Based Estimation Using Differential Privacy and Zonotopes [2.206168301581203]
大規模サイバー物理システムでは、状態推定を行うために空間分布センサの協調が必要であることが多い。
プライバシの懸念は、機密性の高い測定結果をクラウド推定器に開示することにある。
本稿では,推定集合における真の状態の保持と,感度測定のための差分プライバシーを保証する,差分プライベートな集合ベース推定プロトコルを提案する。
論文 参考訳(メタデータ) (2024-08-30T13:05:38Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Assessing Differentially Private Variational Autoencoders under
Membership Inference [26.480694390462617]
差分プライベートな変分オートエンコーダのプライバシーと精度のトレードオフを定量化し比較する。
変分オートエンコーダのプライバシーと精度のトレードオフを良好に観察することはめったになく,LCPがCDPを上回った事例を特定する。
論文 参考訳(メタデータ) (2022-04-16T21:53:09Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Do Not Let Privacy Overbill Utility: Gradient Embedding Perturbation for
Private Learning [74.73901662374921]
差分プライベートモデルは、モデルが多数のトレーニング可能なパラメータを含む場合、ユーティリティを劇的に劣化させる。
偏微分プライベート深層モデルの精度向上のためのアルゴリズムemphGradient Embedding Perturbation (GEP)を提案する。
論文 参考訳(メタデータ) (2021-02-25T04:29:58Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。