論文の概要: An out-of-distribution discriminator based on Bayesian neural network
epistemic uncertainty
- arxiv url: http://arxiv.org/abs/2210.10780v2
- Date: Wed, 9 Aug 2023 17:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 18:17:41.951030
- Title: An out-of-distribution discriminator based on Bayesian neural network
epistemic uncertainty
- Title(参考訳): ベイズ型ニューラルネットワーク認識の不確実性に基づく分散判別器
- Authors: Ethan Ancell, Christopher Bennett, Bert Debusschere, Sapan Agarwal,
Park Hays, T. Patrick Xiao
- Abstract要約: ベイズニューラルネットワーク(Bayesian Neural Network, BNN)は、不確実性を定量化するための組み込み能力を備えた、重要なタイプのニューラルネットワークである。
本稿では,BNNにおける失語症およびてんかんの不確実性とその計算方法について論じる。
- 参考スコア(独自算出の注目度): 0.19573380763700712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have revolutionized the field of machine learning with
increased predictive capability. In addition to improving the predictions of
neural networks, there is a simultaneous demand for reliable uncertainty
quantification on estimates made by machine learning methods such as neural
networks. Bayesian neural networks (BNNs) are an important type of neural
network with built-in capability for quantifying uncertainty. This paper
discusses aleatoric and epistemic uncertainty in BNNs and how they can be
calculated. With an example dataset of images where the goal is to identify the
amplitude of an event in the image, it is shown that epistemic uncertainty
tends to be lower in images which are well-represented in the training dataset
and tends to be high in images which are not well-represented. An algorithm for
out-of-distribution (OoD) detection with BNN epistemic uncertainty is
introduced along with various experiments demonstrating factors influencing the
OoD detection capability in a BNN. The OoD detection capability with epistemic
uncertainty is shown to be comparable to the OoD detection in the discriminator
network of a generative adversarial network (GAN) with comparable network
architecture.
- Abstract(参考訳): ニューラルネットワークは予測能力を高めて機械学習の分野に革命をもたらした。
ニューラルネットワークの予測の改善に加えて,ニューラルネットワークなどの機械学習手法による推定では,信頼性の高い不確かさの定量化が同時に求められている。
ベイジアンニューラルネットワーク(bnns)は、不確かさを定量化する機能を組み込んだ重要なタイプのニューラルネットワークである。
本稿では,BNNにおける失語症およびてんかんの不確実性とその計算方法について論じる。
画像中の事象の振幅を識別することを目的とした画像のサンプルデータセットでは、トレーニングデータセットでよく表現された画像では認識の不確かさが低くなり、よく表現されていない画像では高い傾向が示されている。
BNNにおけるOoD検出能力に影響を及ぼす要因を示す様々な実験とともに、BNNてんかん不確実性を伴うOoD検出アルゴリズムを紹介した。
認識的不確実性を有するood検出能力は,gan(generative adversarial network)の識別ネットワークにおけるood検出に匹敵するネットワークアーキテクチャを有する。
関連論文リスト
- On the Convergence of Locally Adaptive and Scalable Diffusion-Based Sampling Methods for Deep Bayesian Neural Network Posteriors [2.3265565167163906]
ベイズニューラルネットワークは、ディープニューラルネットワークにおける不確実性をモデル化するための有望なアプローチである。
ニューラルネットワークの 後部分布からサンプルを生成することは 大きな課題です
この方向の進歩の1つは、モンテカルロ・マルコフ連鎖サンプリングアルゴリズムへの適応的なステップサイズの導入である。
本稿では,これらの手法が,ステップサイズやバッチサイズが小さくても,サンプリングした分布にかなりの偏りがあることを実証する。
論文 参考訳(メタデータ) (2024-03-13T15:21:14Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - An Estimator for the Sensitivity to Perturbations of Deep Neural
Networks [0.31498833540989407]
本稿では,入力の摂動に対して与えられたディープニューラルネットワークの感度を予測できる推定器を導出する。
推定器の近似は、ImageNetデータセットを使用して、AlexNetとVGG-19の2つの畳み込みニューラルネットワークでテストされる。
論文 参考訳(メタデータ) (2023-07-24T10:33:32Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Certified Invertibility in Neural Networks via Mixed-Integer Programming [16.64960701212292]
ニューラルネットワークは敵の攻撃に弱いことが知られている。
ネットワークの決定に影響を与えない大きな、意味のある摂動が存在するかもしれない。
ニューラルネットワーク間の変換における可逆性検証に,我々の知見がどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-27T15:40:38Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Bayesian Convolutional Neural Networks for Limited Data Hyperspectral
Remote Sensing Image Classification [14.464344312441582]
我々は、HSRS画像の分類に、ベイズニューラルネットワークと呼ばれる、ディープニューラルネットワークの特別なクラスを使用します。
ベイズニューラルネットワークは、不確実性を測定するための固有のツールを提供する。
ベイジアンネットワークは、同様に構築された非ベイジアン畳み込みニューラルネットワーク(CNN)と、既成のランダムフォレスト(RF)より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-19T00:02:16Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。