論文の概要: Uncertainty quantification and out-of-distribution detection using
surjective normalizing flows
- arxiv url: http://arxiv.org/abs/2311.00377v1
- Date: Wed, 1 Nov 2023 09:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 14:21:02.728044
- Title: Uncertainty quantification and out-of-distribution detection using
surjective normalizing flows
- Title(参考訳): 全射正規化流を用いた不確かさ定量化と分布外検出
- Authors: Simon Dirmeier and Ye Hong and Yanan Xin and Fernando Perez-Cruz
- Abstract要約: 本稿では,深層ニューラルネットワークモデルにおける分布外データセットの探索的正規化フローを用いた簡単なアプローチを提案する。
本手法は, 流通外データと流通内データとを確実に識別できることを示す。
- 参考スコア(独自算出の注目度): 46.51077762143714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable quantification of epistemic and aleatoric uncertainty is of crucial
importance in applications where models are trained in one environment but
applied to multiple different environments, often seen in real-world
applications for example, in climate science or mobility analysis. We propose a
simple approach using surjective normalizing flows to identify
out-of-distribution data sets in deep neural network models that can be
computed in a single forward pass. The method builds on recent developments in
deep uncertainty quantification and generative modeling with normalizing flows.
We apply our method to a synthetic data set that has been simulated using a
mechanistic model from the mobility literature and several data sets simulated
from interventional distributions induced by soft and atomic interventions on
that model, and demonstrate that our method can reliably discern
out-of-distribution data from in-distribution data. We compare the surjective
flow model to a Dirichlet process mixture model and a bijective flow and find
that the surjections are a crucial component to reliably distinguish
in-distribution from out-of-distribution data.
- Abstract(参考訳): エピステミックとアレタリック不確実性の信頼性の高い定量化は、1つの環境でモデルが訓練されるが、現実の応用、例えば気候科学や移動分析においてよく見られる複数の異なる環境に適用されるアプリケーションにおいて重要である。
本稿では,1回のフォワードパスで計算可能な深層ニューラルネットワークモデルにおける分布外データセットを同定するために,全射正規化フローを用いた簡易な手法を提案する。
この手法は、流れを正規化する深い不確かさの定量化と生成モデリングの最近の発展に基づいている。
本手法は,移動文学から力学モデルを用いてシミュレーションされた合成データセットと,そのモデル上のソフトおよび原子間干渉による干渉分布からシミュレーションされた複数のデータセットに適用し,分布内データから分布外データを確実に識別できることを実証する。
本研究では,全射流モデルをディリクレ過程混合モデルと単射流と比較し,その全射が分布と分布外データを確実に区別する重要な要素であることを示す。
関連論文リスト
- Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Generative Assignment Flows for Representing and Learning Joint Distributions of Discrete Data [2.6499018693213316]
本稿では,多数の離散確率変数の結合確率分布を表現するための新しい生成モデルを提案する。
全ての離散な関節分布のメタ・プレプレックスにおけるセグレ写像による流れの埋め込みは、任意の対象分布を原理的に表すことができることを保証している。
我々のアプローチは、結合された離散変数のモデリングの第一原理から強い動機を持っている。
論文 参考訳(メタデータ) (2024-06-06T21:58:33Z) - Conditional Pseudo-Reversible Normalizing Flow for Surrogate Modeling in Quantifying Uncertainty Propagation [11.874729463016227]
付加雑音によって汚染された物理モデルの代理モデルを構築するための条件付き擬似可逆正規化フローを導入する。
トレーニングプロセスは、ノイズと関数に関する事前知識を必要とせずに、入出力ペアからなるデータセットを利用する。
トレーニングされたモデルでは,高い確率領域をトレーニングセットでカバーした条件付き確率密度関数からサンプルを生成することができる。
論文 参考訳(メタデータ) (2024-03-31T00:09:58Z) - A Priori Uncertainty Quantification of Reacting Turbulence Closure Models using Bayesian Neural Networks [0.0]
反応流モデルにおける不確実性を捉えるためにベイズニューラルネットワークを用いる。
我々は、BNNモデルが、データ駆動クロージャモデルの不確実性の構造に関するユニークな洞察を提供することができることを示した。
このモデルの有効性は,様々な火炎条件と燃料からなるデータセットに対する事前評価によって実証される。
論文 参考訳(メタデータ) (2024-02-28T22:19:55Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Bayesian Flow Networks [4.585102332532472]
本稿では,ベイジアン・フロー・ネットワーク(BFN)について述べる。ベイジアン・フロー・ネットワーク(BFN)は,独立分布の集合のパラメータをベイジアン推論で修正した新しい生成モデルである。
単純な事前および反復的な2つの分布の更新から始めると、拡散モデルの逆過程に似た生成手順が得られる。
BFNは動的にバイナライズされたMNISTとCIFAR-10で画像モデリングを行うために競合するログライクフレーションを実現し、text8文字レベルの言語モデリングタスクにおいて既知のすべての離散拡散モデルより優れている。
論文 参考訳(メタデータ) (2023-08-14T09:56:35Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - Discrete Denoising Flows [87.44537620217673]
分類的確率変数に対する離散的フローベースモデル(DDF)を提案する。
他の離散フローベースモデルとは対照的に、我々のモデルは勾配バイアスを導入することなく局所的に訓練することができる。
そこで本研究では, DDFs が離散フローより優れていることを示し, 対数類似度で測定した2値MNIST と Cityscapes のセグメンテーションマップをモデル化した。
論文 参考訳(メタデータ) (2021-07-24T14:47:22Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。