論文の概要: Exploring the Limits of Epistemic Uncertainty Quantification in Low-Shot
Settings
- arxiv url: http://arxiv.org/abs/2111.09808v1
- Date: Thu, 18 Nov 2021 17:25:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 13:55:55.873876
- Title: Exploring the Limits of Epistemic Uncertainty Quantification in Low-Shot
Settings
- Title(参考訳): 低温環境におけるてんかん不確実性の定量化限界の探索
- Authors: Matias Valdenegro-Toro
- Abstract要約: ニューラルネットワークの不確実性は、AIシステムの安全性を高めることを約束する。
トレーニングセットのサイズによってパフォーマンスがどう変わるかは明らかではない。
我々は,Fashion MNISTとCIFAR10の7つの不確実性を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty quantification in neural network promises to increase safety of
AI systems, but it is not clear how performance might vary with the training
set size. In this paper we evaluate seven uncertainty methods on Fashion MNIST
and CIFAR10, as we sub-sample and produce varied training set sizes. We find
that calibration error and out of distribution detection performance strongly
depend on the training set size, with most methods being miscalibrated on the
test set with small training sets. Gradient-based methods seem to poorly
estimate epistemic uncertainty and are the most affected by training set size.
We expect our results can guide future research into uncertainty quantification
and help practitioners select methods based on their particular available data.
- Abstract(参考訳): ニューラルネットワークの不確実性定量化は、AIシステムの安全性を高めることを約束するが、トレーニングセットのサイズによってパフォーマンスがどう変わるかは明らかではない。
本稿では,ファッションmnistとcifar10の7つの不確実性評価手法について,サブサンプルとして評価し,様々なトレーニングセットサイズを生成する。
キャリブレーション誤差と分布検出性能はトレーニングセットのサイズに強く依存しており、ほとんどのメソッドは小さなトレーニングセットでテストセット上で誤校正されている。
グラディエントに基づく手法は, てんかん不確実性の推定に乏しく, トレーニングセットサイズに最も影響を受けやすい。
我々は,不確実性定量化に関する今後の研究を指導し,特定のデータに基づく方法の選択を支援することを期待する。
関連論文リスト
- Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Approaching Test Time Augmentation in the Context of Uncertainty Calibration for Deep Neural Networks [2.112682368145474]
画像分類のための深部モデルの不確実性校正を改善するため,M-ATTAとV-ATTAという新しい手法を提案する。
ナ適応重み付けシステムを利用することで、M/V-ATTAはモデルの精度に影響を与えることなく不確実性校正を改善する。
論文 参考訳(メタデータ) (2023-04-11T10:01:39Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Post-hoc Uncertainty Learning using a Dirichlet Meta-Model [28.522673618527417]
本研究では,不確実性定量化能力の優れた事前学習モデルを構築するための新しいベイズメタモデルを提案する。
提案手法は追加のトレーニングデータを必要としないため,不確かさの定量化に十分な柔軟性がある。
提案するメタモデルアプローチの柔軟性と,これらのアプリケーションに対する優れた経験的性能を実証する。
論文 参考訳(メタデータ) (2022-12-14T17:34:11Z) - Uncertainty-Driven Action Quality Assessment [67.20617610820857]
本稿では,複数の判定スコアの多様性を捉えるために,不確実性駆動型AQA (UD-AQA) という新しい確率モデルを提案する。
我々は,AQA回帰損失の再重み付けに使用される各予測の不確かさを推定する。
提案手法は,オリンピックイベントMTL-AQAとFineDivingの3つのベンチマークと,手術スキルJIGSAWSデータセットの3つのベンチマークで比較結果を得た。
論文 参考訳(メタデータ) (2022-07-29T07:21:15Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - Calibrated and Sharp Uncertainties in Deep Learning via Simple Density
Estimation [7.184701179854522]
本稿では,これらの特性の観点からの不確かさを推論し,それを深層学習に適用するための簡単なアルゴリズムを提案する。
本手法はキャリブレーションの最も強い概念である分布キャリブレーションに着目し,低次元密度あるいは量子関数をニューラル推定器に適合させることにより,キャリブレーションを強制する。
実験により,本手法は計算と実装のオーバーヘッドを最小限に抑えながら,いくつかのタスクにおける予測の不確実性を改善できることが判明した。
論文 参考訳(メタデータ) (2021-12-14T06:19:05Z) - Multi-Loss Sub-Ensembles for Accurate Classification with Uncertainty
Estimation [1.2891210250935146]
本稿では,ディープニューラルネットワーク(DNN)の高精度な不確実性推定手法を提案する。
我々は,Deep-Sub-Ensembles法によって提案される利点を利用して,推定時間を比較的低く保つ。
その結果,いくつかの不確実性対策における分類課題と競争結果の精度が向上した。
論文 参考訳(メタデータ) (2020-10-05T10:59:11Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Pitfalls of In-Domain Uncertainty Estimation and Ensembling in Deep
Learning [70.72363097550483]
本研究では,画像分類における領域内不確実性に着目した。
そこで本研究では,ディープアンサンブル等価スコア(DEE)を導入する。
論文 参考訳(メタデータ) (2020-02-15T23:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。