論文の概要: Enhancing Monte Carlo Dropout Performance for Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2505.15671v1
- Date: Wed, 21 May 2025 15:50:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.75393
- Title: Enhancing Monte Carlo Dropout Performance for Uncertainty Quantification
- Title(参考訳): 不確実性定量化のためのモンテカルロのドロップアウト性能向上
- Authors: Hamzeh Asgharnezhad, Afshar Shamsi, Roohallah Alizadehsani, Arash Mohammadi, Hamid Alinejad-Rokny,
- Abstract要約: ディープニューラルネットワークの出力に関連する不確実性を知ることは、信頼できる決定を行う上で最重要となる。
我々は,モンテカルロ・ドロップアウト(MCD)を,異なる検索ソリューションを統合することで拡張する革新的なフレームワークを紹介する。
提案手法は,従来の精度と不確実性の両方の観点から,平均2-3%のMCDベースラインを上回ります。
これらの結果は、安全クリティカルなアプリケーションにおけるディープラーニングモデルの信頼性を高めるためのアプローチの可能性を強調している。
- 参考スコア(独自算出の注目度): 5.41721607488562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowing the uncertainty associated with the output of a deep neural network is of paramount importance in making trustworthy decisions, particularly in high-stakes fields like medical diagnosis and autonomous systems. Monte Carlo Dropout (MCD) is a widely used method for uncertainty quantification, as it can be easily integrated into various deep architectures. However, conventional MCD often struggles with providing well-calibrated uncertainty estimates. To address this, we introduce innovative frameworks that enhances MCD by integrating different search solutions namely Grey Wolf Optimizer (GWO), Bayesian Optimization (BO), and Particle Swarm Optimization (PSO) as well as an uncertainty-aware loss function, thereby improving the reliability of uncertainty quantification. We conduct comprehensive experiments using different backbones, namely DenseNet121, ResNet50, and VGG16, on various datasets, including Cats vs. Dogs, Myocarditis, Wisconsin, and a synthetic dataset (Circles). Our proposed algorithm outperforms the MCD baseline by 2-3% on average in terms of both conventional accuracy and uncertainty accuracy while achieving significantly better calibration. These results highlight the potential of our approach to enhance the trustworthiness of deep learning models in safety-critical applications.
- Abstract(参考訳): ディープニューラルネットワークの出力に関連する不確実性を知ることは、特に医療診断や自律システムといった高度な分野において、信頼できる決定を行う上で最も重要である。
モンテカルロ・ドロップアウト (Monte Carlo Dropout, MCD) は、様々な深層建築に容易に組み込むことができるため、不確実性定量化のための広く使われている手法である。
しかし、従来のMCDは、よくキャリブレーションされた不確実性推定を提供するのに苦労することが多い。
そこで我々はGrey Wolf Optimizer(GWO)、Bayesian Optimization(BO)、Particle Swarm Optimization(PSO)といった様々な検索ソリューションと不確実性認識損失関数を統合して、MDDを強化する革新的なフレームワークを導入し、不確実性定量化の信頼性を向上させる。
DenseNet121、ResNet50、VGG16といった異なるバックボーンを用いて、Cats vs. Dogs、心筋炎、ウィスコンシン州、合成データセット(Circles)など、さまざまなデータセットで包括的な実験を行う。
提案アルゴリズムは,従来の精度と不確かさの両面から平均2-3%向上し,キャリブレーションの精度は著しく向上した。
これらの結果は、安全クリティカルなアプリケーションにおけるディープラーニングモデルの信頼性を高めるためのアプローチの可能性を強調している。
関連論文リスト
- Enhancing Reliability of Neural Networks at the Edge: Inverted
Normalization with Stochastic Affine Transformations [0.22499166814992438]
インメモリコンピューティングアーキテクチャに実装されたBayNNのロバスト性と推論精度を本質的に向上する手法を提案する。
実証的な結果は推論精度の優雅な低下を示し、最大で58.11%の値で改善された。
論文 参考訳(メタデータ) (2024-01-23T00:27:31Z) - On Uncertainty Calibration and Selective Generation in Probabilistic
Neural Summarization: A Benchmark Study [14.041071717005362]
要約のための最新のディープモデルは、優れたベンチマーク性能を得るが、誤校正された予測の不確実性を生成する傾向にある。
これは、低品質の予測に高い信頼性を割り当て、現実世界のアプリケーションにおける信頼性と信頼性を損なうことを意味する。
確率的深層学習法は誤校正問題の一般的な解法であるが, 複雑な自己回帰的要約タスクにおける相対的有効性はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-17T23:06:28Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - On Efficient Uncertainty Estimation for Resource-Constrained Mobile
Applications [0.0]
予測の不確実性は、モデル予測を補完し、下流タスクの機能を改善します。
Axolotlフレームワークを用いてモンテカルロ・ドロップアウト(MCDO)モデルを構築することでこの問題に対処する。
我々は,(1)CIFAR10データセットを用いた多クラス分類タスク,(2)より複雑な人体セグメンテーションタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-11-11T22:24:15Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Gradient-Based Quantification of Epistemic Uncertainty for Deep Object
Detectors [8.029049649310213]
本稿では,新しい勾配に基づく不確実性指標を導入し,異なる物体検出アーキテクチャについて検討する。
実験では、真の肯定的/偽の正の判別と、結合上の交叉の予測において顕著な改善が示された。
また,モンテカルロのドロップアウト不確実性指標に対する改善や,さまざまな不確実性指標のソースを集約することで,さらなる大幅な向上が期待できる。
論文 参考訳(メタデータ) (2021-07-09T16:04:11Z) - Uncertainty-Aware Boosted Ensembling in Multi-Modal Settings [33.25969141014772]
不確実性推定は、デプロイにおける機械学習システムの信頼性を強調する、広く研究されている方法である。
逐次および並列アンサンブル手法により,マルチモーダル設定におけるMLシステムの性能が向上した。
本研究では,不確かさを高く見積もるデータポイントに着目し,マルチモーダルセンシングのための不確実性認識促進手法を提案する。
論文 参考訳(メタデータ) (2021-04-21T18:28:13Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Providing reliability in Recommender Systems through Bernoulli Matrix
Factorization [63.732639864601914]
本稿では,予測値と信頼性値の両方を提供するためにBernoulli Matrix Factorization (BeMF)を提案する。
BeMFはメモリベースのフィルタリングではなく、モデルベースの協調フィルタリングに作用する。
予測の信頼性が高ければ高いほど、それが間違っているという責任は少なくなる。
論文 参考訳(メタデータ) (2020-06-05T14:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。