論文の概要: Is Uncertainty Quantification a Viable Alternative to Learned Deferral?
- arxiv url: http://arxiv.org/abs/2508.02319v1
- Date: Mon, 04 Aug 2025 11:37:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.312773
- Title: Is Uncertainty Quantification a Viable Alternative to Learned Deferral?
- Title(参考訳): 不確かさの定量化は学習デフェラルの代替となるか?
- Authors: Anna M. Wundram, Christian F. Baumgartner,
- Abstract要約: AI安全性の1つの側面は、決定を人間の専門家に委譲するモデルの能力である。
臨床翻訳の間、モデルはしばしばデータシフトのような課題に直面します。
不確かさの定量化方法は、AI推論にとって有望な選択かもしれない。
- 参考スコア(独自算出の注目度): 1.533133219129073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) holds the potential to dramatically improve patient care. However, it is not infallible, necessitating human-AI-collaboration to ensure safe implementation. One aspect of AI safety is the models' ability to defer decisions to a human expert when they are likely to misclassify autonomously. Recent research has focused on methods that learn to defer by optimising a surrogate loss function that finds the optimal trade-off between predicting a class label or deferring. However, during clinical translation, models often face challenges such as data shift. Uncertainty quantification methods aim to estimate a model's confidence in its predictions. However, they may also be used as a deferral strategy which does not rely on learning from specific training distribution. We hypothesise that models developed to quantify uncertainty are more robust to out-of-distribution (OOD) input than learned deferral models that have been trained in a supervised fashion. To investigate this hypothesis, we constructed an extensive evaluation study on a large ophthalmology dataset, examining both learned deferral models and established uncertainty quantification methods, assessing their performance in- and out-of-distribution. Specifically, we evaluate their ability to accurately classify glaucoma from fundus images while deferring cases with a high likelihood of error. We find that uncertainty quantification methods may be a promising choice for AI deferral.
- Abstract(参考訳): 人工知能(AI)は、患者のケアを劇的に改善する可能性を秘めている。
しかし、安全な実装を保証するためには、人間とAIの協調が必要である。
AI安全性の1つの側面は、モデルが自律的に誤分類される可能性がある場合に、決定を人間専門家に委譲する能力である。
近年の研究では、クラスラベルの予測と遅延の間に最適なトレードオフを見出すサロゲート損失関数を最適化することで、遅延を学習する手法に焦点が当てられている。
しかし、臨床翻訳では、モデルはしばしばデータシフトのような課題に直面している。
不確かさの定量化手法は、モデルの予測に対する信頼度を推定することを目的としている。
しかし、これらは特定のトレーニング分布からの学習に依存しない遅延戦略としても用いられる。
我々は、不確実性を定量化するために開発されたモデルは、教師付き方式で訓練された学習されたdeferralモデルよりも、アウト・オブ・ディストリビューション(OOD)入力に対してより堅牢である、と仮定する。
この仮説を解明するために、我々は大規模な眼科データセットの評価を行い、学習されたdeferralモデルの両方を調べ、不確実な定量化方法を確立し、その性能とアウト・オブ・ディストリビューションを評価した。
特に,眼底画像から緑内障を正確に分類する能力について検討した。
我々は、不確実な定量化手法がAIの遅延にとって有望な選択であると考えている。
関連論文リスト
- Hesitation is defeat? Connecting Linguistic and Predictive Uncertainty [2.8186733524862158]
本稿では,ルールベースのラベルラによってラベル付けされた自由テキストレポートから推定される予測不確実性と人・言語不確実性との関係について検討する。
その結果,予測的不確実性と言語的不確実性との間には緩やかな相関関係がみられ,機械の不確実性と人間の解釈を整合させる上での課題が浮き彫りにされた。
論文 参考訳(メタデータ) (2025-05-06T18:34:37Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Bayesian Learned Models Can Detect Adversarial Malware For Free [28.498994871579985]
対数訓練は有効な方法であるが、大規模データセットにスケールアップするには計算コストがかかる。
特にベイズ式はモデルパラメータの分布を捉えることができ、モデル性能を犠牲にすることなく不確実性を定量化することができる。
ベイズ学習法で不確実性を定量化することで、敵のマルウェアを防御できることがわかった。
論文 参考訳(メタデータ) (2024-03-27T07:16:48Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Inadequacy of common stochastic neural networks for reliable clinical
decision support [0.4262974002462632]
医療意思決定におけるAIの普及は、倫理的および安全性に関する懸念から、いまだに妨げられている。
しかし、一般的なディープラーニングアプローチは、データシフトによる過信傾向にある。
本研究は臨床応用における信頼性について考察する。
論文 参考訳(メタデータ) (2024-01-24T18:49:30Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。