論文の概要: An Explainable Agentic AI Framework for Uncertainty-Aware and Abstention-Enabled Acute Ischemic Stroke Imaging Decisions
- arxiv url: http://arxiv.org/abs/2601.01008v1
- Date: Sat, 03 Jan 2026 00:10:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.936865
- Title: An Explainable Agentic AI Framework for Uncertainty-Aware and Abstention-Enabled Acute Ischemic Stroke Imaging Decisions
- Title(参考訳): 不確実性と回避性を有する急性虚血性脳卒中画像診断のための説明可能なエージェントAIフレームワーク
- Authors: Md Rashadul Islam,
- Abstract要約: 急性期脳卒中画像における不確実性認識と回避可能な意思決定支援のための説明可能なエージェントAIフレームワークを提案する。
主にセグメンテーションや分類精度の向上に重点を置いている前脳卒中画像システムとは異なり、提案フレームワークは、臨床安全性、透明性、臨床に整合した意思決定行動を明確に優先順位付けする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence models have shown strong potential in acute ischemic stroke imaging, particularly for lesion detection and segmentation using computed tomography and magnetic resonance imaging. However, most existing approaches operate as black box predictors, producing deterministic outputs without explicit uncertainty awareness or structured mechanisms to abstain under ambiguous conditions. This limitation raises serious safety and trust concerns in high risk emergency radiology settings. In this paper, we propose an explainable agentic AI framework for uncertainty aware and abstention enabled decision support in acute ischemic stroke imaging. The framework follows a modular agentic pipeline in which a perception agent performs lesion aware image analysis, an uncertainty estimation agent computes slice level predictive reliability, and a decision agent determines whether to issue a prediction or abstain based on predefined uncertainty thresholds. Unlike prior stroke imaging systems that primarily focus on improving segmentation or classification accuracy, the proposed framework explicitly prioritizes clinical safety, transparency, and clinician aligned decision behavior. Qualitative and case based analyses across representative stroke imaging scenarios demonstrate that uncertainty driven abstention naturally emerges in diagnostically ambiguous regions and low information slices. The framework further integrates visual explanation mechanisms to support both predictive and abstention decisions, addressing a key limitation of existing uncertainty aware medical imaging systems. Rather than introducing a new performance benchmark, this work presents agentic control, uncertainty awareness, and selective abstention as essential design principles for developing safe and trustworthy medical imaging AI systems.
- Abstract(参考訳): 人工知能モデルは、急性虚血性脳梗塞の画像、特にCTと磁気共鳴画像を用いた病変の検出とセグメント化に強い可能性を示している。
しかし、既存のほとんどのアプローチはブラックボックス予測器として機能し、明確な不確実性を認識しない決定論的出力や、曖昧な条件下での断続的な機構を発生させる。
この制限は、リスクの高い緊急放射線学の設定において、深刻な安全と信頼の懸念を引き起こす。
本稿では,急性期脳卒中画像における不確実性認識と回避可能な意思決定支援のための説明可能なエージェントAIフレームワークを提案する。
認識エージェントが病変認識画像解析を行い、不確実性推定エージェントがスライスレベルの予測信頼性を計算し、決定エージェントが予め定義された不確実性閾値に基づいて予測を発行するか、または棄権するかを決定するモジュラーエージェントパイプラインに従う。
主にセグメンテーションや分類精度の向上に重点を置いている前脳卒中画像システムとは異なり、提案フレームワークは、臨床安全性、透明性、臨床に整合した意思決定行動を明確に優先順位付けする。
代表的な脳卒中画像シナリオの質的およびケースベース解析により、診断上の曖昧な領域と低情報スライスに不確実性誘発の禁忌が自然に出現することを示した。
このフレームワークはさらに、既存の不確実性認識医療画像システムの重要な制限に対処するため、予測的および棄権的決定の両方をサポートする視覚的説明機構を統合している。
この研究は、新しいパフォーマンスベンチマークを導入するのではなく、安全で信頼性の高い医療画像AIシステムの開発に不可欠な設計原則として、エージェント制御、不確実性認識、選択的棄権を示す。
関連論文リスト
- Calibrated Bayesian Deep Learning for Explainable Decision Support Systems Based on Medical Imaging [6.826979426009301]
モデルが予測精度と相関する方法で不確実性を定量化し、臨床医がさらなるレビューのために信頼できないアウトプットを特定できることが不可欠である。
本稿では,ベイズ深層学習に基づく一般化可能な確率的最適化フレームワークを提案する。
特に、信頼性・不確実性境界損失(CUB-Loss)が新しく導入され、高い精度の誤差と低い精度の正確な予測に罰則が課せられる。
提案手法は, 肺炎の自動スクリーニング, 糖尿病性網膜症検出, 皮膚病変の同定という, 3つの異なる医用画像処理課題に対して検証された。
論文 参考訳(メタデータ) (2026-02-12T14:03:41Z) - AgentsEval: Clinically Faithful Evaluation of Medical Imaging Reports via Multi-Agent Reasoning [73.50200033931148]
本稿では,放射線科医の協調診断ワークフローをエミュレートしたマルチエージェントストリーム推論フレームワークであるAgensEvalを紹介する。
評価プロセスを基準定義、エビデンス抽出、アライメント、一貫性スコアなどの解釈可能なステップに分割することで、AgensEvalは明確な推論トレースと構造化された臨床フィードバックを提供する。
実験結果から,AgensEvalは,言い換え,意味的,スタイリスティックな摂動の下でも頑健な臨床的整合性,意味的忠実性,解釈可能な評価を提供することが示された。
論文 参考訳(メタデータ) (2026-01-23T11:59:13Z) - Agentic Uncertainty Quantification [76.94013626702183]
本稿では,言語化された不確実性をアクティブな双方向制御信号に変換する統合されたデュアルプロセスエージェントUQ(AUQ)フレームワークを提案する。
システム1(Uncertainty-Aware Memory, UAM)とシステム2(Uncertainty-Aware Reflection, UAR)は、これらの説明を合理的な手段として利用し、必要な時にのみターゲットの推論時間解決をトリガーする。
論文 参考訳(メタデータ) (2026-01-22T07:16:26Z) - Benchmarking Uncertainty and its Disentanglement in multi-label Chest X-Ray Classification [11.21639536740362]
コンボリューション(ResNet)とトランスフォーマー(Vision Transformer)アーキテクチャにおける13の不確実性定量化手法を評価する。
Evidential Deep Learning, HetClass NNs, Deep Deterministic Uncertaintyをマルチラベル設定に拡張する。
論文 参考訳(メタデータ) (2025-08-06T13:58:17Z) - Metrics that matter: Evaluating image quality metrics for medical image generation [48.85783422900129]
本研究は、脳MRIデータを用いて、一般的に使用される非参照画像品質指標を包括的に評価する。
本研究は, ノイズ, 分布変化, および臨床的に関係のある不正確さを模倣した形態的変化を含む, 様々な課題に対する計量感度を評価する。
論文 参考訳(メタデータ) (2025-05-12T01:57:25Z) - Explaining Uncertainty in Multiple Sclerosis Lesion Segmentation Beyond Prediction Errors [30.086986374579414]
本研究では,予測の不確実性の潜在的な原因を説明する新しい枠組みを紹介する。
提案した分析は、不確実性とエラーの関係から関連する医療・工学的要因へと焦点を移す。
症例によっては, 病変の大きさ, 形状, 皮質の関与など, 不確実性が強く関与していることが判明した。
論文 参考訳(メタデータ) (2025-04-07T08:09:27Z) - Epistemic Uncertainty for Generated Image Detection [107.62647907393377]
本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Uncertainty Quantification in Machine Learning Based Segmentation: A Post-Hoc Approach for Left Ventricle Volume Estimation in MRI [0.0]
左室容積推定は各種心血管疾患の診断・管理に重要である。
近年の機械学習、特にU-Netのような畳み込みネットワークは、医療画像の自動セグメンテーションを促進している。
本研究では,LV容積予測におけるポストホック不確実性推定のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T13:44:55Z) - Benchmarking Scalable Epistemic Uncertainty Quantification in Organ
Segmentation [7.313010190714819]
モデル予測に関連する不確実性の定量化は 重要な臨床応用に不可欠です
自動臓器分割のためのディープラーニングに基づく手法は,診断と治療計画を支援する上で有望であることを示す。
医用画像解析設定においてどの方法が好ましいかは不明確である。
論文 参考訳(メタデータ) (2023-08-15T00:09:33Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。