論文の概要: Mean estimation in the add-remove model of differential privacy
- arxiv url: http://arxiv.org/abs/2312.06658v2
- Date: Mon, 19 Feb 2024 20:50:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 20:02:03.979670
- Title: Mean estimation in the add-remove model of differential privacy
- Title(参考訳): 差分プライバシーの付加除去モデルにおける平均推定
- Authors: Alex Kulesza and Ananda Theertha Suresh and Yuyan Wang
- Abstract要約: 加算除去モデルに基づく一次元平均推定問題について検討する。
提案アルゴリズムは,実際に頻繁に使用されるアルゴリズムよりも,平均2乗誤差が2倍に向上することを示す。
- 参考スコア(独自算出の注目度): 20.78625240235862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is often studied under two different models of
neighboring datasets: the add-remove model and the swap model. While the swap
model is frequently used in the academic literature to simplify analysis, many
practical applications rely on the more conservative add-remove model, where
obtaining tight results can be difficult. Here, we study the problem of
one-dimensional mean estimation under the add-remove model. We propose a new
algorithm and show that it is min-max optimal, achieving the best possible
constant in the leading term of the mean squared error for all $\epsilon$, and
that this constant is the same as the optimal algorithm under the swap model.
These results show that the add-remove and swap models give nearly identical
errors for mean estimation, even though the add-remove model cannot treat the
size of the dataset as public information. We also demonstrate empirically that
our proposed algorithm yields at least a factor of two improvement in mean
squared error over algorithms frequently used in practice. One of our main
technical contributions is a new hour-glass mechanism, which might be of
independent interest in other scenarios.
- Abstract(参考訳): 差分プライバシーは、しばしば隣接するデータセットの2つの異なるモデル、すなわちアドレベーブモデルとスワップモデルの下で研究される。
スワップモデルはしばしば学術文献で分析を単純化するために使われるが、多くの実践的応用はより保守的な追加除去モデルに依存しており、厳密な結果を得るのは難しい。
本稿では,加算除去モデルに基づく一次元平均推定問題について検討する。
提案するアルゴリズムでは, 平均二乗誤差の先頭項において, 平均二乗誤差の最大値として min-max が最適であり, この定数はスワップモデルの下での最適アルゴリズムと同じであることを示す。
これらの結果から,追加削除モデルとスワップモデルは,データセットのサイズを公開情報として扱えないにもかかわらず,平均推定にほぼ同一の誤差を与えることがわかった。
また,提案アルゴリズムは,実際に頻繁に使用されるアルゴリズムよりも,平均二乗誤差が2倍に向上することを示した。
私たちの主要な技術的貢献の1つは、新しい時間ガラスメカニズムであり、他のシナリオに独立した関心を持つかもしれません。
関連論文リスト
- A Hitchhiker's Guide to Scaling Law Estimation [56.06982415792523]
スケーリング法則は、より少ないパラメータやより少ないトレーニングセットで訓練が容易なモデルから外挿することで、ターゲットとなる機械学習モデルの損失を予測する。
我々は1000以上のスケーリング法則を推定し、新しいモデルファミリーにおけるスケーリング法則を推定するためのベストプラクティスを導出する。
論文 参考訳(メタデータ) (2024-10-15T17:59:10Z) - Accelerating Ensemble Error Bar Prediction with Single Models Fits [0.5249805590164902]
Nモデルのアンサンブルは、推論に使用される場合の1つのモデルに比べて、およそN倍計算的に要求される。
本研究では,単一モデルを用いてアンサンブル誤りを予測し,完全アンサンブルを必要とせずに不確実性を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T16:10:27Z) - Bayesian score calibration for approximate models [0.0]
そこで本研究では, バイアスを低減し, より正確な不確実性定量化を実現するために, 近似後部サンプルを調整するための新しい手法を提案する。
我々のアプローチでは、(固定された)少数の複雑なモデルシミュレーションしか必要とせず、数値的に安定である。
論文 参考訳(メタデータ) (2022-11-10T06:00:58Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Diverse Counterfactual Explanations for Anomaly Detection in Time Series [26.88575131193757]
本稿では,時系列異常検出モデルに対する反実的アンサンブル説明を生成するモデル非依存アルゴリズムを提案する。
本手法は, 検出モデルでは異常とはみなされない, 元の時系列の複数バージョンを, 多様な逆実例として生成する。
我々のアルゴリズムは、任意の識別可能な異常検出モデルに適用できる。
論文 参考訳(メタデータ) (2022-03-21T16:30:34Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z) - Learning Interpretable Models Using Uncertainty Oracles [12.879371384378164]
解釈可能なモデルの望ましい性質は、人間によって容易に理解できるように、小さなサイズである。
a) 小さいサイズが正確さを暗示し、(b) サイズを制限するモデルファミリが提供するビースルークレバーは、望ましいサイズ精度のトレードオフに達するには不十分である。
論文 参考訳(メタデータ) (2019-06-17T05:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。