論文の概要: Private Prediction Sets
- arxiv url: http://arxiv.org/abs/2102.06202v1
- Date: Thu, 11 Feb 2021 18:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:25:41.183012
- Title: Private Prediction Sets
- Title(参考訳): プライベート予測セット
- Authors: Anastasios N. Angelopoulos and Stephen Bates and Tijana Zrnic and
Michael I. Jordan
- Abstract要約: 機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
CIFAR-10, ImageNet, CoronaHack のデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 77.3178364443694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world settings involving consequential decision-making, the
deployment of machine learning systems generally requires both reliable
uncertainty quantification and protection of individuals' privacy. We present a
framework that treats these two desiderata jointly. Our framework is based on
conformal prediction, a methodology that augments predictive models to return
prediction sets that provide uncertainty quantification -- they provably cover
the true response with a user-specified probability, such as 90%. One might
hope that when used with privately-trained models, conformal prediction would
yield privacy guarantees for the resulting prediction sets; unfortunately this
is not the case. To remedy this key problem, we develop a method that takes any
pre-trained predictive model and outputs differentially private prediction
sets. Our method follows the general approach of split conformal prediction; we
use holdout data to calibrate the size of the prediction sets but preserve
privacy by using a privatized quantile subroutine. This subroutine compensates
for the noise introduced to preserve privacy in order to guarantee correct
coverage. We evaluate the method with experiments on the CIFAR-10, ImageNet,
and CoronaHack datasets.
- Abstract(参考訳): 一連の意思決定を含む現実の環境では、機械学習システムの導入は一般的に信頼性の高い不確実性定量化と個人のプライバシー保護の両方を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
我々のフレームワークは、予測モデルを拡張して不確実な定量化を提供する予測セットを返す手法である共形予測に基づいており、90%のようなユーザ特定確率で真の応答を確実にカバーしている。
プライベートに訓練されたモデルを使用する場合、コンフォーマル予測が結果の予測セットのプライバシー保証をもたらすと期待するかもしれません。
この問題を解決するために,事前学習された予測モデルを取り込んで,微分プライベートな予測集合を出力する手法を開発した。
提案手法は分割共形予測の一般的な手法に準じており,予測集合のサイズを定式化するためにホールドアウトデータを用いるが,民営化された分位分位子サブルーチンを用いてプライバシを保留する。
このサブルーチンは、正しいカバレッジを保証するためにプライバシーを保護するために導入されたノイズを補います。
CIFAR-10, ImageNet, CoronaHackデータセットを用いた実験による評価を行った。
関連論文リスト
- Generalization and Informativeness of Conformal Prediction [36.407171992845456]
Con conformal prediction (CP) は任意のベース予測器をカバレッジ保証付きセット予測器に変換する。
CPは、予測セットがユーザ定義の許容範囲でターゲット量を含むことを認証するが、予測セットの平均サイズを制御できない。
基底予測器の一般化特性と結果のCP予測セットの情報性との間に理論的な関係が確立される。
導出上界は、CPセット予測器の平均サイズが、キャリブレーションデータの量、目標信頼性、ベース予測器の一般化性能に依存することを洞察する。
論文 参考訳(メタデータ) (2024-01-22T10:14:45Z) - Post-selection Inference for Conformal Prediction: Trading off Coverage
for Precision [0.0]
伝統的に、共形予測推論はデータに依存しない発見レベルの仕様を必要とする。
我々は,データ依存的誤発見レベルを考慮した同時共形推論を開発する。
論文 参考訳(メタデータ) (2023-04-12T20:56:43Z) - One-Shot Federated Conformal Prediction [0.0]
単発フェデレーション学習環境における予測セット構築のための共形予測手法を提案する。
我々は,任意の分布に対して,1ラウンドの通信でのみ,所望のカバレッジで予測セットを出力できることを証明した。
論文 参考訳(メタデータ) (2023-02-13T12:46:39Z) - Distribution-Free Finite-Sample Guarantees and Split Conformal
Prediction [0.0]
分割共形予測は、最小分布自由仮定の下で有限サンプル保証を得るための有望な道を表す。
1940年代に開発された分割共形予測と古典的寛容予測との関連性を強調した。
論文 参考訳(メタデータ) (2022-10-26T14:12:24Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - AutoCP: Automated Pipelines for Accurate Prediction Intervals [84.16181066107984]
本稿では、自動予測のための自動機械学習(Automatic Machine Learning for Conformal Prediction, AutoCP)というAutoMLフレームワークを提案する。
最高の予測モデルを選択しようとする慣れ親しんだAutoMLフレームワークとは異なり、AutoCPは、ユーザが指定したターゲットカバレッジ率を達成する予測間隔を構築する。
さまざまなデータセットでAutoCPをテストしたところ、ベンチマークアルゴリズムを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-06-24T23:13:11Z) - Individual Calibration with Randomized Forecasting [116.2086707626651]
予測値がランダムに設定された場合,各サンプルのキャリブレーションは回帰設定で可能であることを示す。
我々は、個別の校正を強制する訓練目標を設計し、それをランダム化された回帰関数の訓練に使用する。
論文 参考訳(メタデータ) (2020-06-18T05:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。