論文の概要: Mean estimation in the add-remove model of differential privacy
- arxiv url: http://arxiv.org/abs/2312.06658v1
- Date: Mon, 11 Dec 2023 18:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:09:50.627835
- Title: Mean estimation in the add-remove model of differential privacy
- Title(参考訳): 差分プライバシーの付加除去モデルにおける平均推定
- Authors: Alex Kulesza and Ananda Theertha Suresh and Yuyan Wang
- Abstract要約: 差分プライバシーの付加除去モデルに基づく一次元平均推定問題について検討する。
提案アルゴリズムは,実際によく使用されるアルゴリズムよりも平均2乗誤差が2倍に向上することを示した。
- 参考スコア(独自算出の注目度): 20.78625240235862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is often studied under two different models of
neighboring datasets: the add-remove model and the swap model. While the swap
model is used extensively in the academic literature, many practical libraries
use the more conservative add-remove model. However, analysis under the
add-remove model can be cumbersome, and obtaining results with tight constants
requires some additional work. Here, we study the problem of one-dimensional
mean estimation under the add-remove model of differential privacy. We propose
a new algorithm and show that it is min-max optimal, that it has the correct
constant in the leading term of the mean squared error, and that this constant
is the same as the optimal algorithm in the swap model. Our results show that,
for mean estimation, the add-remove and swap model give nearly identical error
even though the add-remove model cannot treat the size of the dataset as public
information. In addition, we demonstrate empirically that our proposed
algorithm yields a factor of two improvement in mean squared error over
algorithms often used in practice.
- Abstract(参考訳): 差分プライバシーは、しばしば隣接するデータセットの2つの異なるモデル、すなわちアドレベーブモデルとスワップモデルの下で研究される。
スワップモデルは学術文献で広く使われているが、多くの実践的な図書館はより保守的な追加削除モデルを使用している。
しかし、Add-Removeモデルに基づく解析は煩雑であり、厳密な定数で結果を得るには若干の作業が必要である。
本稿では,差分プライバシーの付加除去モデルに基づく一次元平均推定問題について検討する。
提案手法では, 平均二乗誤差の先頭項における正定数が min-max 最適であり, この定数がスワップモデルにおける最適アルゴリズムと同じであることを示す。
その結果,付加除去モデルでは,データセットのサイズを公開情報として扱えないにもかかわらず,付加除去モデルとスワップモデルがほぼ同じ誤差を与えることがわかった。
さらに,本提案手法は,実際によく使用されるアルゴリズムよりも平均二乗誤差が2倍向上することを示す。
関連論文リスト
- A Hitchhiker's Guide to Scaling Law Estimation [56.06982415792523]
スケーリング法則は、より少ないパラメータやより少ないトレーニングセットで訓練が容易なモデルから外挿することで、ターゲットとなる機械学習モデルの損失を予測する。
我々は1000以上のスケーリング法則を推定し、新しいモデルファミリーにおけるスケーリング法則を推定するためのベストプラクティスを導出する。
論文 参考訳(メタデータ) (2024-10-15T17:59:10Z) - Accelerating Ensemble Error Bar Prediction with Single Models Fits [0.5249805590164902]
Nモデルのアンサンブルは、推論に使用される場合の1つのモデルに比べて、およそN倍計算的に要求される。
本研究では,単一モデルを用いてアンサンブル誤りを予測し,完全アンサンブルを必要とせずに不確実性を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T16:10:27Z) - Bayesian score calibration for approximate models [0.0]
そこで本研究では, バイアスを低減し, より正確な不確実性定量化を実現するために, 近似後部サンプルを調整するための新しい手法を提案する。
我々のアプローチでは、(固定された)少数の複雑なモデルシミュレーションしか必要とせず、数値的に安定である。
論文 参考訳(メタデータ) (2022-11-10T06:00:58Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Diverse Counterfactual Explanations for Anomaly Detection in Time Series [26.88575131193757]
本稿では,時系列異常検出モデルに対する反実的アンサンブル説明を生成するモデル非依存アルゴリズムを提案する。
本手法は, 検出モデルでは異常とはみなされない, 元の時系列の複数バージョンを, 多様な逆実例として生成する。
我々のアルゴリズムは、任意の識別可能な異常検出モデルに適用できる。
論文 参考訳(メタデータ) (2022-03-21T16:30:34Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z) - Learning Interpretable Models Using Uncertainty Oracles [12.879371384378164]
解釈可能なモデルの望ましい性質は、人間によって容易に理解できるように、小さなサイズである。
a) 小さいサイズが正確さを暗示し、(b) サイズを制限するモデルファミリが提供するビースルークレバーは、望ましいサイズ精度のトレードオフに達するには不十分である。
論文 参考訳(メタデータ) (2019-06-17T05:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。