論文の概要: Differentially private ratio statistics
- arxiv url: http://arxiv.org/abs/2505.20351v1
- Date: Mon, 26 May 2025 04:28:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.199019
- Title: Differentially private ratio statistics
- Title(参考訳): 微分プライベート比統計
- Authors: Tomer Shoham, Katrina Ligettt,
- Abstract要約: 単純なアルゴリズムでさえ、プライバシー、サンプル精度、バイアスに関する優れた特性を提供できることを示す。
我々のアプローチは、差分プライバシーの文献のギャップを埋め、プライベート機械学習パイプラインにおける比率推定の実用的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ratio statistics--such as relative risk and odds ratios--play a central role in hypothesis testing, model evaluation, and decision-making across many areas of machine learning, including causal inference and fairness analysis. However, despite privacy concerns surrounding many datasets and despite increasing adoption of differential privacy, differentially private ratio statistics have largely been neglected by the literature and have only recently received an initial treatment by Lin et al. [1]. This paper attempts to fill this lacuna, giving results that can guide practice in evaluating ratios when the results must be protected by differential privacy. In particular, we show that even a simple algorithm can provide excellent properties concerning privacy, sample accuracy, and bias, not just asymptotically but also at quite small sample sizes. Additionally, we analyze a differentially private estimator for relative risk, prove its consistency, and develop a method for constructing valid confidence intervals. Our approach bridges a gap in the differential privacy literature and provides a practical solution for ratio estimation in private machine learning pipelines.
- Abstract(参考訳): 相対的リスクや確率比などの比率統計は、仮説テスト、モデル評価、意思決定において、因果推論や公平性分析を含む機械学習の多くの領域において中心的な役割を果たす。
しかし、多くのデータセットを取り巻くプライバシー上の懸念や、差分プライバシーの導入にもかかわらず、差分プライベート比の統計は文献によってほとんど無視され、Lin et al [1] による初期治療を受けたばかりである。
本論文は、このラッカナを埋めようと試み、結果が差分プライバシーによって保護されなければならない場合の比率評価の実践をガイドできる結果を与える。
特に、単純なアルゴリズムでさえ、漸近的にだけでなく、非常に小さなサンプルサイズでも、プライバシー、サンプル精度、バイアスに関する優れた特性を提供できることを示す。
さらに,相対的リスクに対する個人差分推定器を解析し,その整合性を証明し,有効信頼区間を構築する方法を開発した。
我々のアプローチは、差分プライバシーの文献のギャップを埋め、プライベート機械学習パイプラインにおける比率推定の実用的なソリューションを提供する。
関連論文リスト
- On Privately Estimating a Single Parameter [47.499748486548484]
大規模パラメトリックモデルにおける個々のパラメータに対する微分プライベート推定器について検討する。
これらのプライベート証明書を活用することで、少なくともサンプルサイズにおいて、本質的には改善不可能なプライベート統計を解放する計算的かつ統計的に効率的なメカニズムを提供する。
我々は,米国コミュニティサーベイと米国国勢調査のシミュレーションデータと実世界のデータの両方において,新しい手順が成功するシナリオを強調し,今後の作業領域を特定するアルゴリズムの実用性について検討する。
論文 参考訳(メタデータ) (2025-03-21T15:57:12Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Differentially Private Federated Learning: Servers Trustworthiness, Estimation, and Statistical Inference [18.97060758177909]
本稿では,差分プライバシーの制約下での高次元推定と推測の課題について検討する。
線形回帰モデルに適した新しいフェデレーション推定アルゴリズムを提案する。
また,各パラメータの座標的信頼区間を含む統計的推測手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T02:14:07Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Differentially Private Confidence Intervals for Proportions under Stratified Random Sampling [14.066813980992132]
データプライバシの意識の高まりに伴い、プライベートバージョンの信頼区間の開発が注目されている。
最近の研究は個人的信頼区間で行われているが、個人的信頼区間では厳密な方法論が研究されていない。
階層化されたランダムサンプリングの下で,信頼区間を構成するための3つの差分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-19T21:25:41Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Differential privacy and robust statistics in high dimensions [49.50869296871643]
高次元Propose-Test-Release (HPTR) は指数的メカニズム、頑健な統計、Propose-Test-Release メカニズムという3つの重要なコンポーネントの上に構築されている。
本論文では,HPTRが複数のシナリオで最適サンプル複雑性をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2021-11-12T06:36:40Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。