論文の概要: Uncertainty Quantification for Deep Neural Networks: An Empirical
Comparison and Usage Guidelines
- arxiv url: http://arxiv.org/abs/2212.07118v1
- Date: Wed, 14 Dec 2022 09:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 17:55:31.995457
- Title: Uncertainty Quantification for Deep Neural Networks: An Empirical
Comparison and Usage Guidelines
- Title(参考訳): ディープニューラルネットワークの不確実性定量化:実証的比較と利用ガイドライン
- Authors: Michael Weiss and Paolo Tonella
- Abstract要約: ディープニューラルネットワーク(DNN)は、複雑なデータを処理する必要がある大規模ソフトウェアシステムのコンポーネントとして、ますます利用されている。
不確実性推定によりスーパーバイザを実装するディープラーニングベースシステム(DLS)。
- 参考スコア(独自算出の注目度): 4.987581730476023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNN) are increasingly used as components of larger
software systems that need to process complex data, such as images, written
texts, audio/video signals. DNN predictions cannot be assumed to be always
correct for several reasons, among which the huge input space that is dealt
with, the ambiguity of some inputs data, as well as the intrinsic properties of
learning algorithms, which can provide only statistical warranties. Hence,
developers have to cope with some residual error probability. An architectural
pattern commonly adopted to manage failure-prone components is the supervisor,
an additional component that can estimate the reliability of the predictions
made by untrusted (e.g., DNN) components and can activate an automated healing
procedure when these are likely to fail, ensuring that the Deep Learning based
System (DLS) does not cause damages, despite its main functionality being
suspended.
In this paper, we consider DLS that implement a supervisor by means of
uncertainty estimation. After overviewing the main approaches to uncertainty
estimation and discussing their pros and cons, we motivate the need for a
specific empirical assessment method that can deal with the experimental
setting in which supervisors are used, where the accuracy of the DNN matters
only as long as the supervisor lets the DLS continue to operate. Then we
present a large empirical study conducted to compare the alternative approaches
to uncertainty estimation. We distilled a set of guidelines for developers that
are useful to incorporate a supervisor based on uncertainty monitoring into a
DLS.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、画像、テキスト、オーディオ/ビデオ信号などの複雑なデータを処理する必要がある大規模ソフトウェアシステムのコンポーネントとして、ますます利用されている。
DNN予測は、いくつかの理由で常に正しいとは考えられず、そのうちの1つは、膨大な入力空間、いくつかの入力データのあいまいさ、および統計的保証しか提供できない学習アルゴリズムの固有の性質である。
したがって、開発者は残留するエラーの確率に対処する必要がある。
障害を起こしやすいコンポーネントを管理するために一般的に採用されるアーキテクチャパターンはスーパーバイザーであり、信頼できない(例えばDNN)コンポーネントによる予測の信頼性を推定し、これらが失敗する可能性があるときに自動的な治癒手順を起動できる追加コンポーネントであり、主要な機能は停止されているにもかかわらず、Deep Learning Based System (DLS)が損傷を起こさないことを保証している。
本稿では、不確実性推定によりスーパーバイザを実装するDLSについて考察する。
不確実性推定に対する主要なアプローチを概観し、その長所と短所について議論した後、監督者が使用する実験的な設定に対処できる特定の経験的評価方法の必要性を動機付け、監督者がdlsを継続させる限り、dnnの正確性が重要となる。
そこで本研究では,不確実性推定に対する代替手法の比較実験を行った。
我々は、不確実性監視に基づく管理者をDLSに組み込むのに役立つ開発者のためのガイドラインを考案した。
関連論文リスト
- The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Interval Deep Learning for Uncertainty Quantification in Safety
Applications [0.0]
現在のディープニューラルネットワーク(DNN)は、重要な入力データの不確実性を定量化し伝播する暗黙のメカニズムを持っていない。
本稿では、間隔解析を用いて入力とパラメータの不確かさを定量化できる勾配法を最適化したDNNを提案する。
本研究では,Deep Interval Neural Network (DINN) が不確定な入力データから正確な有界推定を生成できることを示した。
論文 参考訳(メタデータ) (2021-05-13T17:21:33Z) - Uncertainty-aware Remaining Useful Life predictor [57.74855412811814]
有効寿命 (Remaining Useful Life, RUL) とは、特定の産業資産の運用期間を推定する問題である。
本研究では,Deep Gaussian Processes (DGPs) を,前述の制限に対する解決策と捉える。
アルゴリズムの性能はNASAの航空機エンジン用N-CMAPSSデータセットで評価される。
論文 参考訳(メタデータ) (2021-04-08T08:50:44Z) - Sketching Curvature for Efficient Out-of-Distribution Detection for Deep
Neural Networks [32.629801680158685]
Sketching Curvature of OoD Detection (SCOD)は、訓練されたディープニューラルネットワークにタスク関連不確実性推定を装備するためのアーキテクチャに依存しないフレームワークである。
SCODは,既存のベースラインと比較して計算負担の少ないOoD検出性能の同等あるいは優れたOoD検出性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-02-24T21:34:40Z) - Fail-Safe Execution of Deep Learning based Systems through Uncertainty
Monitoring [4.56877715768796]
フェールセーフなディープラーニングベースシステム(DLS)は、スーパーバイザーによってDNNの障害を処理する。
本稿では,DNNの不確実性推定器を用いて,そのようなスーパーバイザを実装する手法を提案する。
通常のtf.keras DNNに対する不確かさを透過的に推定できるツールUNCERTAINTY-WIZARDについて述べる。
論文 参考訳(メタデータ) (2021-02-01T15:22:54Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - A Comparison of Uncertainty Estimation Approaches in Deep Learning
Components for Autonomous Vehicle Applications [0.0]
自律走行車(AV)の安全性を確保する主要な要因は、望ましくない、予測できない状況下での異常な行動を避けることである。
データやモデルにおける不確実性の定量化のための様々な手法が近年提案されている。
これらの手法では、高い計算負荷、高いメモリフットプリント、余分なレイテンシが要求され、安全クリティカルなアプリケーションでは禁止される。
論文 参考訳(メタデータ) (2020-06-26T18:55:10Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - Assurance Monitoring of Cyber-Physical Systems with Machine Learning
Components [2.1320960069210484]
我々は,サイバー物理システムの保証監視にコンフォメーション予測フレームワークを使用する方法について検討する。
リアルタイムに高次元入力を処理するために,学習モデルの埋め込み表現を用いて非整合性スコアを計算する。
整合性予測を活用することで、この手法は十分に校正された信頼性を提供し、限定された小さなエラー率を保証する監視を可能にする。
論文 参考訳(メタデータ) (2020-01-14T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。