論文の概要: Uncertainty Surrogates for Deep Learning
- arxiv url: http://arxiv.org/abs/2104.08147v1
- Date: Fri, 16 Apr 2021 14:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 19:11:54.673541
- Title: Uncertainty Surrogates for Deep Learning
- Title(参考訳): 深層学習における不確実性
- Authors: Radhakrishna Achanta, Natasa Tagasovska
- Abstract要約: 不確実性サーロゲートを用いて深層ネットワークにおける予測不確実性を推定する新しい方法を紹介します。
これらのサーロゲートは、事前定義されたパターンに一致させるように強制される深いネットワークの衝動層の特徴です。
予測の不確実性や分布異常検出の推定に,本手法の有用性を示す。
- 参考スコア(独自算出の注目度): 17.868995105624023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we introduce a novel way of estimating prediction uncertainty
in deep networks through the use of uncertainty surrogates. These surrogates
are features of the penultimate layer of a deep network that are forced to
match predefined patterns. The patterns themselves can be, among other
possibilities, a known visual symbol. We show how our approach can be used for
estimating uncertainty in prediction and out-of-distribution detection.
Additionally, the surrogates allow for interpretability of the ability of the
deep network to learn and at the same time lend robustness against adversarial
attacks. Despite its simplicity, our approach is superior to the
state-of-the-art approaches on standard metrics as well as computational
efficiency and ease of implementation. A wide range of experiments are
performed on standard datasets to prove the efficacy of our approach.
- Abstract(参考訳): 本稿では,不確実なサロゲートを用いて,深層ネットワークにおける予測の不確かさを推定する方法を提案する。
これらのサロゲートは、事前に定義されたパターンにマッチせざるを得ないディープネットワークの最後尾層の特徴である。
パターン自体が既知の視覚的シンボルである可能性も考えられる。
提案手法は,予測の不確実性を推定し,分布外検出に有効であることを示す。
さらに、サロゲートはディープネットワークが学習する能力の解釈を可能にし、同時に敵の攻撃に対して堅牢性を与える。
そのシンプルさにもかかわらず、我々のアプローチは、計算効率と実装の容易さだけでなく、標準メトリクスに関する最先端のアプローチよりも優れている。
提案手法の有効性を証明するため,標準データセット上で幅広い実験を行った。
関連論文リスト
- Boosting Adversarial Robustness using Feature Level Stochastic Smoothing [46.86097477465267]
敵の防御は、ディープニューラルネットワークの堅牢性を大幅に向上させた。
本研究では,ネットワーク予測における導入性に関する一般的な手法を提案する。
また、信頼性の低い予測を拒否する意思決定の円滑化にも活用する。
論文 参考訳(メタデータ) (2023-06-10T15:11:24Z) - Uncertainty Quantification in Deep Neural Networks through Statistical
Inference on Latent Space [0.0]
ネットワークに供給されたデータポイントの潜在空間表現を利用して予測精度を評価するアルゴリズムを開発した。
一般的に使われている手法が大半が過信である合成データセットについて述べる。
対照的に,本手法は,不正確な予測を行うようなアウト・オブ・ディストリビューション・データ・ポイントを検出できるため,アウトレーヤの自動検出に役立てることができる。
論文 参考訳(メタデータ) (2023-05-18T09:52:06Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - ZigZag: Universal Sampling-free Uncertainty Estimation Through Two-Step Inference [54.17205151960878]
汎用的でデプロイが容易なサンプリング不要のアプローチを導入します。
我々は,最先端手法と同等の信頼性のある不確実性推定を,計算コストを著しく低減した形で生成する。
論文 参考訳(メタデータ) (2022-11-21T13:23:09Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Robust Deep Learning for Autonomous Driving [0.0]
モデル信頼度を確実に推定する新しい基準を導入する:真のクラス確率(TCP)
真のクラスは本質的にテスト時に未知であるため、補助モデルを用いてデータからTCPの基準を学習し、この文脈に適応した特定の学習スキームを導入することを提案する。
本研究は, 既知モデルに基づく新たな不確実性尺度を導入することで, 誤分類と分布外サンプルを共同で検出する課題に対処する。
論文 参考訳(メタデータ) (2022-11-14T22:07:11Z) - Training Uncertainty-Aware Classifiers with Conformalized Deep Learning [7.837881800517111]
ディープニューラルネットワークは、データ内の隠れパターンを検出し、それらを活用して予測する強力なツールであるが、不確実性を理解するように設計されていない。
我々は予測力を犠牲にすることなく、より信頼性の高い不確実性推定を導出できる新しいトレーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-05-12T05:08:10Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Depth Uncertainty in Neural Networks [2.6763498831034043]
ディープラーニングにおける不確実性を推定する既存の方法は、複数の前方パスを必要とする傾向がある。
フィードフォワードネットワークのシーケンシャルな構造を利用することで、トレーニング目標を評価し、単一のフォワードパスで予測を行うことができる。
実世界の回帰と画像分類タスクに対する我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-06-15T14:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。