論文の概要: Epistemic Deep Learning: Enabling Machine Learning Models to Know When They Do Not Know
- arxiv url: http://arxiv.org/abs/2510.22261v1
- Date: Sat, 25 Oct 2025 12:00:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.008227
- Title: Epistemic Deep Learning: Enabling Machine Learning Models to Know When They Do Not Know
- Title(参考訳): てんかんの深層学習 - 機械学習モデルを用いて、いつ自分が知らないかを知る
- Authors: Shireen Kudukkil Manchingal,
- Abstract要約: この論文は、明確に不確実性をモデル化し定量化する、疫学的人工知能のパラダイムを推進している。
この研究の中心は、ランダムセット理論を利用して信念関数を予測する新しい手法であるランダムセットニューラルネットワーク(RS-NN)の開発である。
このタイトルは、この作品の中核となる哲学をカプセル化しており、真の知性は自身の知識の限界を認識し管理することを含んでいると強調している。
- 参考スコア(独自算出の注目度): 1.8613536568358358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has achieved remarkable successes, yet its deployment in safety-critical domains remains hindered by an inherent inability to manage uncertainty, resulting in overconfident and unreliable predictions when models encounter out-of-distribution data, adversarial perturbations, or naturally fluctuating environments. This thesis, titled Epistemic Deep Learning: Enabling Machine Learning Models to 'Know When They Do Not Know', addresses these critical challenges by advancing the paradigm of Epistemic Artificial Intelligence, which explicitly models and quantifies epistemic uncertainty: the uncertainty arising from limited, biased, or incomplete training data, as opposed to the irreducible randomness of aleatoric uncertainty, thereby empowering models to acknowledge their limitations and refrain from overconfident decisions when uncertainty is high. Central to this work is the development of the Random-Set Neural Network (RS-NN), a novel methodology that leverages random set theory to predict belief functions over sets of classes, capturing the extent of epistemic uncertainty through the width of associated credal sets, applications of RS-NN, including its adaptation to Large Language Models (LLMs) and its deployment in weather classification for autonomous racing. In addition, the thesis proposes a unified evaluation framework for uncertainty-aware classifiers. Extensive experiments validate that integrating epistemic awareness into deep learning not only mitigates the risks associated with overconfident predictions but also lays the foundation for a paradigm shift in artificial intelligence, where the ability to 'know when it does not know' becomes a hallmark of robust and dependable systems. The title encapsulates the core philosophy of this work, emphasizing that true intelligence involves recognizing and managing the limits of one's own knowledge.
- Abstract(参考訳): 機械学習は目覚ましい成功を収めてきたが、その安全クリティカルな領域への展開は、不確実性を管理するための固有の能力の欠如によって妨げられている。
Epistemic Deep Learning: Enabling Machine Learning Models to 'Know When They Do Not Know'と題されたこの論文は、エピステミック人工知能のパラダイムを進化させることによって、これらの重要な課題に対処する。
この研究の中心となるのはランダムセットニューラルネットワーク(Random-Set Neural Network, RS-NN)の開発である。これは、ランダムセット理論を利用してクラスの集合上の信念関数を予測し、関連するクレダルセットの幅を通じて疫学的な不確実性の範囲を捉え、RS-NNの適用、大規模言語モデル(LLM)への適応、自律レースのための気象分類への展開など、新しい方法論である。
さらに,本論文では,不確実性認識型分類器の統一評価フレームワークを提案する。
広範囲にわたる実験は、認識を深層学習に組み込むことは、過信の予測に関連するリスクを軽減するだけでなく、人工知能におけるパラダイムシフトの基盤を築き、そこでは「知らないときに知る」能力が堅牢で信頼性の高いシステムの目印となることを実証している。
このタイトルは、この作品の中核となる哲学をカプセル化しており、真の知性は自身の知識の限界を認識し管理することを含んでいると強調している。
関連論文リスト
- Towards Reliable LLM-based Robot Planning via Combined Uncertainty Estimation [68.106428321492]
大規模言語モデル (LLM) は高度な推論能力を示し、ロボットが自然言語の命令を理解し、適切な接地で高レベルな計画を生成することができる。
LLMの幻覚は重大な課題であり、しばしば過度に信頼され、不一致または安全でない計画に繋がる。
本研究は, 信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性・信頼性評価を別々に評価するものである。
論文 参考訳(メタデータ) (2025-10-09T10:26:58Z) - Explainability through uncertainty: Trustworthy decision-making with neural networks [1.104960878651584]
不確実性は、あらゆる機械学習モデルの主要な特徴である。
ニューラルネットワークでは特に重要であり、過信されがちである。
XAIとしての不確実性は、下流の意思決定タスクにおけるモデルの信頼性を改善する。
論文 参考訳(メタデータ) (2024-03-15T10:22:48Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Random-Set Neural Networks (RS-NN) [4.549947259731147]
本稿では,新しいランダムセットニューラルネットワーク(RS-NN)による分類手法を提案する。
RS-NNは、不十分に代表される訓練セットによって引き起こされる「緊急」不確実性を符号化する。
提案手法は,精度,不確実性推定,アウト・オブ・ディストリビューション(OoD)検出において,最先端のベイズ法およびアンサンブル法より優れる。
論文 参考訳(メタデータ) (2023-07-11T20:00:35Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。