論文の概要: Unifying supervised learning and VAEs -- automating statistical
inference in (astro-)particle physics with amortized conditional normalizing
flows
- arxiv url: http://arxiv.org/abs/2008.05825v3
- Date: Sun, 14 Aug 2022 20:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:05:07.605817
- Title: Unifying supervised learning and VAEs -- automating statistical
inference in (astro-)particle physics with amortized conditional normalizing
flows
- Title(参考訳): 教師付き学習とvaesの統一化 --(astro-)粒子物理学における統計的推論の非調和条件正規化フローによる自動化
- Authors: Thorsten Gl\"usenkamp
- Abstract要約: データとラベルの共分散のKL分割目標は、教師付き学習と変分オートエンコーダの統合を可能にする。
この構築には、ニューラルネットワークで補正された条件付き正規化フローが不可欠である。
製品空間上で共同で定義された後続のカバレッジを厳密に定義する方法について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A KL-divergence objective of the joint distribution of data and labels allows
to unify supervised learning and variational autoencoders (VAEs) under one
umbrella of stochastic variational inference. The unification motivates an
extended supervised scheme which allows to calculate a goodness-of-fit p-value
for the neural network model. Conditional normalizing flows amortized with a
neural network are crucial in this construction. We discuss how they allow to
rigorously define coverage for posteriors defined jointly on a product space,
e.g. $\mathbb{R}^n \times \mathcal{S}^m$, which encompasses posteriors over
directions. Finally, systematic uncertainties are naturally included in the
variational viewpoint. In classical likelihood approaches or other machine
learning models, the ingredients of (1) systematics, (2) coverage and (3)
goodness-of-fit are typically not all available or at least one of them
strongly constrained. In contrast, the proposed extended supervised training
with amortized normalizing flows accommodates all three of them for variational
inference of arbitrary statistical distributions defined on product spaces like
$\mathbb{R}^n \times \ldots \times \mathcal{S}^m$ and no fundamental barrier in
terms of complexity of the underlying data. It therefore has great potential
for the statistical toolbox of the contemporary (astro-)particle physicist.
- Abstract(参考訳): データとラベルの共分散のKL分割の目的は、確率的変分推論の1つの傘の下で教師付き学習と変分オートエンコーダ(VAE)を統合することである。
この統一は、ニューラルネットワークモデルに適したp値を計算することができる拡張教師付きスキームを動機付けている。
この構成では、ニューラルネットワークで償却された条件付き正規化フローが不可欠である。
製品空間上で共同で定義された後続のカバレッジを厳密に定義する方法について論じる。例えば、$\mathbb{r}^n \times \mathcal{s}^m$ は、後続の方向を包含する。
最後に、系統的不確実性は自然に変分的視点に含まれる。
古典的な確率的アプローチや他の機械学習モデルでは、(1)体系的、(2)カバレッジ、(3)適合性の良さの要素は、一般に全て利用できないか、少なくとも一つは強い制約を受ける。
対照的に、補正正規化フローを用いた拡張教師付きトレーニングは、$\mathbb{R}^n \times \ldots \times \mathcal{S}^m$のような積空間上で定義された任意の統計分布の変分推論にこれら3つ全てに対応し、基礎となるデータの複雑さに関して基本的な障壁はない。
したがって、現代の(アストロ-)粒子物理学者の統計ツールボックスには大きな可能性がある。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - Flexible Heteroscedastic Count Regression with Deep Double Poisson Networks [4.58556584533865]
本稿ではDDPN(Deep Double Poisson Network)を提案する。
DDPNは既存の離散モデルを大幅に上回っている。
これは様々なカウント回帰データセットに適用できる。
論文 参考訳(メタデータ) (2024-06-13T16:02:03Z) - Approximation with Random Shallow ReLU Networks with Applications to Model Reference Adaptive Control [0.0]
ランダムに生成される重みとバイアスを持つReLUネットワークは、高い確率で$O(m-1/2)$の誤りを生じることを示す。
本稿では,モデル参照適応制御アプリケーションにおいて,必要な精度を近似するために,その結果をどのように利用できるかを示す。
論文 参考訳(メタデータ) (2024-03-25T19:39:17Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Random-Set Neural Networks (RS-NN) [4.549947259731147]
分類のための新しいランダムセットニューラルネットワーク(RS-NN)を提案する。
RS-NNは、一組のクラス上の確率ベクトルよりも信念関数を予測する。
限られたトレーニングセットによって、機械学習で引き起こされる「緊急」不確実性を符号化する。
論文 参考訳(メタデータ) (2023-07-11T20:00:35Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。