論文の概要: Can Physician Judgment Enhance Model Trustworthiness? A Case Study on
Predicting Pathological Lymph Nodes in Rectal Cancer
- arxiv url: http://arxiv.org/abs/2312.09529v1
- Date: Fri, 15 Dec 2023 04:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 17:14:15.886409
- Title: Can Physician Judgment Enhance Model Trustworthiness? A Case Study on
Predicting Pathological Lymph Nodes in Rectal Cancer
- Title(参考訳): 医師の判断は信頼性を高めるか?
直腸癌における病理リンパ節の予測に関する検討
- Authors: Kazuma Kobayashi, Yasuyuki Takamizawa, Mototaka Miyake, Sono Ito, Lin
Gu, Tatsuya Nakatsuka, Yu Akagi, Tatsuya Harada, Yukihide Kanemitsu, Ryuji
Hamamoto
- Abstract要約: 直腸癌リンパ節転移の予測には,臨床データとMRIを用いてトランスフォーマーを用いた。
予測確率分散や定量化合意といったメタレベルの情報を用いてモデルの不確実性を推定した。
この合意が不確実性を減少させるかどうかの私たちの評価は、大きな影響は出なかった。
- 参考スコア(独自算出の注目度): 35.293442328112036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is key to enhancing artificial intelligence's trustworthiness
in medicine. However, several issues remain concerning the actual benefit of
explainable models for clinical decision-making. Firstly, there is a lack of
consensus on an evaluation framework for quantitatively assessing the practical
benefits that effective explainability should provide to practitioners.
Secondly, physician-centered evaluations of explainability are limited.
Thirdly, the utility of built-in attention mechanisms in transformer-based
models as an explainability technique is unclear. We hypothesize that superior
attention maps should align with the information that physicians focus on,
potentially reducing prediction uncertainty and increasing model reliability.
We employed a multimodal transformer to predict lymph node metastasis in rectal
cancer using clinical data and magnetic resonance imaging, exploring how well
attention maps, visualized through a state-of-the-art technique, can achieve
agreement with physician understanding. We estimated the model's uncertainty
using meta-level information like prediction probability variance and
quantified agreement. Our assessment of whether this agreement reduces
uncertainty found no significant effect. In conclusion, this case study did not
confirm the anticipated benefit of attention maps in enhancing model
reliability. Superficial explanations could do more harm than good by
misleading physicians into relying on uncertain predictions, suggesting that
the current state of attention mechanisms in explainability should not be
overestimated. Identifying explainability mechanisms truly beneficial for
clinical decision-making remains essential.
- Abstract(参考訳): 説明責任は、医療における人工知能の信頼性を高める鍵となる。
しかし, 臨床意思決定における説明可能なモデルの実効性については, 課題がいくつか残されている。
第一に、効果的な説明責任が実践者にもたらすべき実践的メリットを定量的に評価するための評価フレームワークに関する合意が欠如している。
第二に、医師中心の説明可能性の評価は限られている。
第3に,変圧器モデルにおけるアテンション機構を説明可能性として組み込んだ手法の有用性は明らかでない。
我々は、優れた注意マップは医師がフォーカスする情報と一致し、予測の不確実性を減らし、モデルの信頼性を高めるべきであると仮定する。
臨床データとmriを用いて, 直腸癌リンパ節転移の予測にマルチモーダルトランスフォーマーを応用し, 最新技術を用いて注意マップを可視化し, 医師の理解と一致させる方法について検討した。
予測確率分散や定量化合意といったメタレベル情報を用いてモデルの不確かさを推定した。
この合意が不確実性を減少させるかどうかの私たちの評価は、大きな影響は出なかった。
その結果,モデル信頼性を高める上での注意マップのメリットは確認されなかった。
表面的な説明は、医師を不確実な予測に頼らせ、説明可能性における注意機構の現況を過度に見積もってはならないことを示唆する。
臨床的意思決定に真に有効な説明可能性メカニズムの同定は依然として不可欠である。
関連論文リスト
- Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - SepsisLab: Early Sepsis Prediction with Uncertainty Quantification and Active Sensing [67.8991481023825]
セプシスは米国での院内死亡の主な原因である。
既存の予測モデルは通常、情報不足の少ない高品質なデータで訓練される。
限られた観察により信頼性の低い高リスク患者に対して,ロバストな能動センシングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-24T04:47:36Z) - Assisting clinical practice with fuzzy probabilistic decision trees [2.0999441362198907]
本研究では,確率木とファジィ論理を組み合わせて臨床実習を支援する新しい手法であるFPTを提案する。
FPTとその予測は、この目的のために特別に設計されたユーザフレンドリーなインターフェースを用いて、直感的に臨床実践を支援することができることを示す。
論文 参考訳(メタデータ) (2023-04-16T14:05:16Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Improving Trustworthiness of AI Disease Severity Rating in Medical
Imaging with Ordinal Conformal Prediction Sets [0.7734726150561088]
統計的に厳密な不確実性定量化の欠如は、AI結果の信頼を損なう重要な要因である。
分布自由不確実性定量化の最近の進歩は、これらの問題に対する実用的な解決策である。
本稿では, 正しい狭窄の重症度を含むことが保証される順序予測セットを形成する手法を実証する。
論文 参考訳(メタデータ) (2022-07-05T18:01:20Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Uncertainty-Informed Deep Learning Models Enable High-Confidence
Predictions for Digital Histopathology [40.96261204117952]
肺腺癌と扁平上皮癌を鑑別するモデルを訓練し,高い信頼度予測がUQなしで予測を上回ることを示す。
非肺癌コホートに対する腺癌と扁平上皮癌との高信頼度予測を精度良く行うことで, 領域シフトの設定においてUQ閾値の信頼性が保たれることを示す。
論文 参考訳(メタデータ) (2022-04-09T17:35:37Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z) - Bayesian Modelling in Practice: Using Uncertainty to Improve Trustworthiness in Medical Applications [2.446672595462589]
集中治療室(Intensive Care Unit、ICU)は、機械学習が臨床的意思決定に有用な支援を提供する可能性がある病院部門である。
実際には、破滅的な治療決定を未然に防ぐために、余計な治療を受けた医師に不確実な予測を提示すべきである。
ベイジアンモデリングとそれが提供する予測の不確実性が、誤った予測のリスクを軽減するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2019-06-20T13:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。