論文の概要: Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees
- arxiv url: http://arxiv.org/abs/2306.06582v1
- Date: Sun, 11 Jun 2023 04:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:07:41.938840
- Title: Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees
- Title(参考訳): 被覆保証付きニューラルネットワークの高速分布自由予測推定
- Authors: Yue Gao, Garvesh Raskutti, Rebecca Willet
- Abstract要約: 本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
- 参考スコア(独自算出の注目度): 25.798057062452443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel, computationally-efficient algorithm for
predictive inference (PI) that requires no distributional assumptions on the
data and can be computed faster than existing bootstrap-type methods for neural
networks. Specifically, if there are $n$ training samples, bootstrap methods
require training a model on each of the $n$ subsamples of size $n-1$; for large
models like neural networks, this process can be computationally prohibitive.
In contrast, our proposed method trains one neural network on the full dataset
with $(\epsilon, \delta)$-differential privacy (DP) and then approximates each
leave-one-out model efficiently using a linear approximation around the
differentially-private neural network estimate. With exchangeable data, we
prove that our approach has a rigorous coverage guarantee that depends on the
preset privacy parameters and the stability of the neural network, regardless
of the data distribution. Simulations and experiments on real data demonstrate
that our method satisfies the coverage guarantees with substantially reduced
computation compared to bootstrap methods.
- Abstract(参考訳): 本稿では,データへの分布的仮定を必要とせず,既存のニューラルネットワークのブートストラップ型手法よりも高速に計算可能な,計算効率の高い予測推論アルゴリズムを提案する。
具体的には、$n$トレーニングサンプルがある場合、ブートストラップメソッドは、$n$サブサンプルサイズ$n-1$のモデルをトレーニングする必要がある。
これとは対照的に,提案手法では,1つのニューラルネットワークを$(\epsilon, \delta)$-differential privacy (dp) でフルデータセット上でトレーニングし,差分プライベートニューラルネットワーク推定値の線形近似を用いて,各左辺1-outモデルを効率的に近似する。
交換可能なデータを用いることで,プライバシパラメータとニューラルネットワークの安定性に依存する厳密なカバレッジ保証が,データ分布によらず実現可能であることを実証する。
実データを用いたシミュレーションと実験により,本手法はブートストラップ法と比較して計算量を大幅に削減した。
関連論文リスト
- Neural-g: A Deep Learning Framework for Mixing Density Estimation [16.464806944964003]
混合(または先行)密度推定は、機械学習と統計学において重要な問題である。
本稿では,新しいニューラルネットワークを用いたモデリング手法であるNeural-$g$を提案する。
論文 参考訳(メタデータ) (2024-06-10T03:00:28Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training [0.0]
非可逆ニューラルネットワーク(INN)のような生成ネットワークは確率的展開を可能にする。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件INN(IcINN)を導入する。
論文 参考訳(メタデータ) (2022-12-16T19:00:05Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Robust and integrative Bayesian neural networks for likelihood-free
parameter inference [0.0]
要約統計を学習するための最先端のニューラルネットワークベースの手法は、シミュレーションベースの確率自由パラメータ推論に有望な結果をもたらした。
本研究では,ベイズニューラルネットワークを用いて要約統計学を学習し,カテゴリー分布を用いて後部密度を直接推定する頑健な統合手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T13:45:23Z) - POSEIDON: Privacy-Preserving Federated Neural Network Learning [8.103262600715864]
POSEIDONは、プライバシ保護ニューラルネットワークトレーニングの世界で、最初のタイプのものだ。
トレーニングデータ、モデル、評価データの機密性を維持するために、マルチパーティの格子ベースの暗号を用いる。
MNISTデータセットに784の特徴と60Kのサンプルを2時間以内で10のパーティに分散させた3層ニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-09-01T11:06:31Z) - Measurement error models: from nonparametric methods to deep neural
networks [3.1798318618973362]
本稿では,測定誤差モデルの推定に有効なニューラルネットワーク設計を提案する。
完全に接続されたフィードフォワードニューラルネットワークを用いて回帰関数を$f(x)$に近似する。
我々は、ニューラルネットワークアプローチと古典的ノンパラメトリック手法を比較するために、広範囲にわたる数値的研究を行っている。
論文 参考訳(メタデータ) (2020-07-15T06:05:37Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。