論文の概要: Differentially Private Bayesian Inference for Generalized Linear Models
- arxiv url: http://arxiv.org/abs/2011.00467v3
- Date: Wed, 12 May 2021 08:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:13:26.727283
- Title: Differentially Private Bayesian Inference for Generalized Linear Models
- Title(参考訳): 一般化線形モデルに対する微分プライベートベイズ推論
- Authors: Tejas Kulkarni, Joonas J\"alk\"o, Antti Koskela, Samuel Kaski and
Antti Honkela
- Abstract要約: ロジスティック回帰のような一般化線形モデル(GLM)は、データアナリストのレパートリーにおいて最も広く使われている武器の一つである。
本稿では,GLMの雑音を考慮したDPベイズ推定手法を提案する。
本モデルから得られた後部は,強いプライバシー保証に固執する一方で,非私的後部に近いものであることを実験的に実証した。
- 参考スコア(独自算出の注目度): 21.942149563564968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized linear models (GLMs) such as logistic regression are among the
most widely used arms in data analyst's repertoire and often used on sensitive
datasets. A large body of prior works that investigate GLMs under differential
privacy (DP) constraints provide only private point estimates of the regression
coefficients, and are not able to quantify parameter uncertainty. In this work,
with logistic and Poisson regression as running examples, we introduce a
generic noise-aware DP Bayesian inference method for a GLM at hand, given a
noisy sum of summary statistics. Quantifying uncertainty allows us to determine
which of the regression coefficients are statistically significantly different
from zero. We provide a previously unknown tight privacy analysis and
experimentally demonstrate that the posteriors obtained from our model, while
adhering to strong privacy guarantees, are close to the non-private posteriors.
- Abstract(参考訳): ロジスティック回帰のような一般化線形モデル(GLM)は、データアナリストのレパートリーにおいて最も広く使われている武器であり、敏感なデータセットでよく使用される。
差分プライバシー(DP)制約下でのGLMを調査する先行研究の多くは、回帰係数のプライベートポイント推定のみを提供し、パラメータの不確かさを定量化できない。
そこで本研究では,ロジスティック回帰とポアソン回帰を実例とし,狭義統計量のノイズ和が与えられた場合,手元にあるglmに対する雑音対応dpベイズ推定法を提案する。
不確実性の定量化により、回帰係数のどれがゼロと統計的に大きく異なるかを決定することができる。
我々は,これまで知られていなかった厳密なプライバシー分析を行い,我々のモデルから得られた後肢が,強力なプライバシー保証に固執しながら,非プライベート後肢に近いことを実験的に証明した。
関連論文リスト
- Interval Estimation of Coefficients in Penalized Regression Models of Insurance Data [3.5637073151604093]
ツイーディー指数分散ファミリーは、保険の損失をモデル化するために多くの人々の間で人気がある。
内在変数を記述する最も重要な特徴の信頼性(推論)を得るためには、しばしば重要である。
論文 参考訳(メタデータ) (2024-10-01T18:57:18Z) - Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
さらに、テストポイントがトレーニングセットと非自明な相関を持ち、時系列予測で頻繁に発生するような場合まで分析を拡張します。
我々は多種多様な高次元データにまたがって理論を検証する。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Inference at the data's edge: Gaussian processes for modeling and inference under model-dependency, poor overlap, and extrapolation [0.0]
ガウス過程 (GP) はフレキシブルな非線形回帰法である。
これは、予測された(非現実的な)値に対する不確実性を扱うための原則化されたアプローチを提供する。
これは外挿または弱い重なり合いの条件下では特に有用である。
論文 参考訳(メタデータ) (2024-07-15T05:09:50Z) - Conformal inference for regression on Riemannian Manifolds [49.7719149179179]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、Xで表される共変数がユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Differentially Private Statistical Inference through $\beta$-Divergence
One Posterior Sampling [2.8544822698499255]
本稿では,モデルとデータ生成プロセス間の$beta$-divergenceの最小化を目標とした,一般化後部からの後部サンプリング手法を提案する。
これにより、基礎となるモデルの変更を必要とせずに、一般的に適用可能なプライベートな推定が可能になる。
我々は、$beta$D-Bayesが同一のプライバシー保証に対してより正確な推測を行うことを示す。
論文 参考訳(メタデータ) (2023-07-11T12:00:15Z) - Differentially Private Distributed Bayesian Linear Regression with MCMC [0.966840768820136]
我々は、複数のパーティがデータの一部を保持し、プライバシ保護ノイズにおけるその部分の要約統計を共有できる分散環境について検討する。
線形回帰統計学の要約統計学における有用な分布関係を生かした,個人共用統計学のための新しい生成統計学モデルを構築した。
本研究では,実データとシミュレーションデータの両方について数値計算を行い,提案アルゴリズムが十分に囲む推定と予測を行うことを示す。
論文 参考訳(メタデータ) (2023-01-31T17:27:05Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。