論文の概要: Fundamental Issues Regarding Uncertainties in Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2002.11152v1
- Date: Tue, 25 Feb 2020 19:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:18:07.809809
- Title: Fundamental Issues Regarding Uncertainties in Artificial Neural Networks
- Title(参考訳): ニューラルネットワークの不確実性に関する基礎的課題
- Authors: Neil A. Thacker, Carole J. Twining, Paul D. Tar, Scott Notley and
Visvanathan Ramesh
- Abstract要約: 検査は必ずしも信頼性を欠くものではなく、安全クリティカルシステムをサポートするためには、トレーニングサンプルが出力に関連する不確実性を示すためにそのようなシステムが必要である。
本稿では,この問題の標準的な解釈について論じるとともに,長期的手法に基づく定量的アプローチが実際どのように適用できるかを示す。
- 参考スコア(独自算出の注目度): 2.729898906885749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Neural Networks (ANNs) implement a specific form of multi-variate
extrapolation and will generate an output for any input pattern, even when
there is no similar training pattern. Extrapolations are not necessarily to be
trusted, and in order to support safety critical systems, we require such
systems to give an indication of the training sample related uncertainty
associated with their output. Some readers may think that this is a well known
issue which is already covered by the basic principles of pattern recognition.
We will explain below how this is not the case and how the conventional
(Likelihood estimate of) conditional probability of classification does not
correctly assess this uncertainty. We provide a discussion of the standard
interpretations of this problem and show how a quantitative approach based upon
long standing methods can be practically applied. The methods are illustrated
on the task of early diagnosis of dementing diseases using Magnetic Resonance
Imaging.
- Abstract(参考訳): ニューラルネットワーク(anns)は、特定の形式の多変量外挿を実装し、類似のトレーニングパターンがなくても、任意の入力パターンの出力を生成する。
検査は必ずしも信頼性を欠くものではなく、安全クリティカルシステムをサポートするためには、トレーニングサンプルが出力に関連する不確実性を示すためにそのようなシステムが必要である。
一部の読者は、これはパターン認識の基本的な原則によって既にカバーされているよく知られた問題であると考えているかもしれない。
以下に、これがそうでないことと、従来の(様相的な)分類の条件付き確率が、この不確かさを正しく評価しない方法を説明する。
本稿では,この問題の標準的な解釈について論じ,長期的手法に基づく定量的アプローチを実際に適用する方法を示す。
磁気共鳴画像を用いた認知症早期診断の課題について概説した。
関連論文リスト
- A General Framework for Uncertainty Quantification via Neural SDE-RNN [0.3314882635954751]
不確かさの定量化は、ディープラーニングにとって批判的だが未解決の課題である。
本稿では, 再帰型ニューラルネットワークとニューラルディファレンシャル方程式の原理を基礎として, 不規則なサンプル計測を再現する新しい枠組みを提案する。
IEEE 37バステストシステムを用いた実験により,我々のフレームワークは時系列データ計算における最先端の不確実性定量化手法より優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-01T22:59:45Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Confidence-Aware and Self-Supervised Image Anomaly Localisation [7.099105239108548]
本稿では,ゆるやかな特徴的局所性制約による確率的推論の近似を支援する,自己教師付きシングルクラストレーニング戦略について論じる。
提案手法は,複数のオフ・オブ・ディストリビューション(OOD)検出モデルに統合されている。
論文 参考訳(メタデータ) (2023-03-23T12:48:47Z) - Calibrating Ensembles for Scalable Uncertainty Quantification in Deep
Learning-based Medical Segmentation [0.42008820076301906]
自動画像解析における不確かさの定量化は、多くのアプリケーションで非常に望まれている。
現在の不確実性定量化アプローチは、高次元実世界の問題ではうまくスケールしない。
本研究では,ディープラーニングモデルのアンサンブルを校正し,不確実な定量化測定を行うための,スケーラブルで直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T09:09:48Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Uncertainty-Aware Deep Classifiers using Generative Models [7.486679152591502]
ディープニューラルネットワークは、しばしば、彼らが知らないことについて無知であり、インフォームド予測を行うときに過信する。
最近のアプローチでは、クラス境界に近いデータサンプルやトレーニング分布の外側から、モデルに高い不確実性を出力するようにトレーニングすることで、不確実性を直接定量化している。
本研究では,アレータ性およびてんかん性不確実性の両方を表現し,決定境界と分布外領域を識別できる新しいニューラルネットワークモデルを構築した。
論文 参考訳(メタデータ) (2020-06-07T15:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。