論文の概要: A Survey on Epistemic (Model) Uncertainty in Supervised Learning: Recent
Advances and Applications
- arxiv url: http://arxiv.org/abs/2111.01968v2
- Date: Thu, 4 Nov 2021 01:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 10:31:02.388320
- Title: A Survey on Epistemic (Model) Uncertainty in Supervised Learning: Recent
Advances and Applications
- Title(参考訳): 監視学習におけるてんかん(モデル)不確実性に関する調査研究:最近の進歩と応用
- Authors: Xinlei Zhou and Han Liu and Farhad Pourpanah and Tieyong Zeng and
Xizhao Wang
- Abstract要約: 教師付き学習モデルの不確実性の定量化は、より信頼性の高い予測を行う上で重要な役割を果たす。
通常、モデルに関する知識不足が原因で生じるてんかんの不確実性は、より多くのデータを集めることで軽減できる。
- 参考スコア(独自算出の注目度): 18.731827159755014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying the uncertainty of supervised learning models plays an important
role in making more reliable predictions. Epistemic uncertainty, which usually
is due to insufficient knowledge about the model, can be reduced by collecting
more data or refining the learning models. Over the last few years, scholars
have proposed many epistemic uncertainty handling techniques which can be
roughly grouped into two categories, i.e., Bayesian and ensemble. This paper
provides a comprehensive review of epistemic uncertainty learning techniques in
supervised learning over the last five years. As such, we, first, decompose the
epistemic uncertainty into bias and variance terms. Then, a hierarchical
categorization of epistemic uncertainty learning techniques along with their
representative models is introduced. In addition, several applications such as
computer vision (CV) and natural language processing (NLP) are presented,
followed by a discussion on research gaps and possible future research
directions.
- Abstract(参考訳): 教師付き学習モデルの不確かさの定量化は、より信頼できる予測を行う上で重要な役割を果たす。
通常、モデルに関する知識不足が原因で生じるてんかんの不確実性は、より多くのデータを収集したり、学習モデルを精査することで軽減することができる。
ここ数年、学者は、ベイズとアンサンブルの2つのカテゴリに大まかに分類できる多くの疫学的不確実性処理技術を提案してきた。
本稿では,過去5年間の教師あり学習における疫学不確実性学習手法の総合的なレビューを行う。
このようにして、我々はまず、認識の不確実性をバイアスと分散項に分解する。
そして, その代表モデルとともに, エピステマティック不確実性学習技術の階層的分類を導入する。
さらに,コンピュータビジョン (cv) や自然言語処理 (nlp) などの応用例を提示するとともに,研究ギャップと今後の研究方向性について考察した。
関連論文リスト
- From Uncertainty to Clarity: Uncertainty-Guided Class-Incremental Learning for Limited Biomedical Samples via Semantic Expansion [0.0]
バイオメディカル分野における限られたサンプルの下でのクラスインクリメンタル学習手法を提案する。
提案手法は,最先端の手法を最大53.54%の精度で上回り,最適性能を実現する。
論文 参考訳(メタデータ) (2024-09-12T05:22:45Z) - A Comprehensive Survey on Evidential Deep Learning and Its Applications [64.83473301188138]
Evidential Deep Learning (EDL)は、単一のフォワードパスで最小限の追加計算で信頼性の高い不確実性推定を提供する。
まず、主観的論理理論であるEDLの理論的基礎を掘り下げ、他の不確実性推定フレームワークとの区別について議論する。
さまざまな機械学習パラダイムや下流タスクにまたがる広範な応用について詳しく述べる。
論文 参考訳(メタデータ) (2024-09-07T05:55:06Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z) - On robustness of generative representations against catastrophic
forgetting [17.467589890017123]
新しいタスクを学習しながら学習した知識を破滅的に忘れることは、現代のニューラルネットワークの限界として広く観察されている。
本研究では,ニューラルモデルにより内部に構築された表現の特異性に関する一連の研究仮説をポーズし,検証することにより,この問題に対処することを目的とする。
識別モデルにより学習された表現は、その生成モデルよりも破滅的な忘れがちであり、連続学習のための生成モデルを開発する利点に新たな光を当てている。
論文 参考訳(メタデータ) (2021-09-04T11:33:24Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - An Optimal Control Approach to Learning in SIDARTHE Epidemic model [67.22168759751541]
本研究では,疫病データから動的コンパートメンタルモデルの時間変化パラメータを学習するための一般的な手法を提案する。
我々はイタリアとフランスの疫病の進化を予報する。
論文 参考訳(メタデータ) (2020-10-28T10:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。