論文の概要: Uncertainty-Aware Learning Policy for Reliable Pulmonary Nodule Detection on Chest X-Ray
- arxiv url: http://arxiv.org/abs/2508.13236v1
- Date: Mon, 18 Aug 2025 01:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.675099
- Title: Uncertainty-Aware Learning Policy for Reliable Pulmonary Nodule Detection on Chest X-Ray
- Title(参考訳): 胸部X線を用いた信頼性肺結節検出のための不確実性認識学習法
- Authors: Hyeonjin Choi, Jinse Kim, Dong-yeon Yoo, Ju-sung Sun, Jung-won Lee,
- Abstract要約: 本研究では,知識不足の問題に対処できる不確実性意識学習政策を提案する。
症例はAjou University Hospitalで2,517例,結節像656例であった。
提案モデルでは, ベースラインモデルと比較して感度が10%向上し, 92%に達した。
- 参考スコア(独自算出の注目度): 8.181554172109792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early detection and rapid intervention of lung cancer are crucial. Nonetheless, ensuring an accurate diagnosis is challenging, as physicians' ability to interpret chest X-rays varies significantly depending on their experience and degree of fatigue. Although medical AI has been rapidly advancing to assist in diagnosis, physicians' trust in such systems remains limited, preventing widespread clinical adoption. This skepticism fundamentally stems from concerns about its diagnostic uncertainty. In clinical diagnosis, physicians utilize extensive background knowledge and clinical experience. In contrast, medical AI primarily relies on repetitive learning of the target lesion to generate diagnoses based solely on that data. In other words, medical AI does not possess sufficient knowledge to render a diagnosis, leading to diagnostic uncertainty. Thus, this study suggests an Uncertainty-Aware Learning Policy that can address the issue of knowledge deficiency by learning the physicians' background knowledge alongside the Chest X-ray lesion information. We used 2,517 lesion-free images and 656 nodule images, all obtained from Ajou University Hospital. The proposed model attained 92% (IoU 0.2 / FPPI 2) with a 10% enhancement in sensitivity compared to the baseline model while also decreasing entropy as a measure of uncertainty by 0.2.
- Abstract(参考訳): 肺癌の早期発見と迅速な治療が重要である。
それでも、医師が胸部X線を解釈する能力は、経験や疲労度によって大きく異なるため、正確な診断を保証することは困難である。
医療用AIは診断を助けるために急速に進歩してきたが、そのようなシステムに対する医師の信頼は限定的であり、広く臨床導入を妨げている。
この懐疑論は、診断の不確実性に関する懸念に根ざしている。
臨床診断では、医師は広い背景知識と臨床経験を利用する。
対照的に、医療用AIは、主にターゲットの病変を反復的に学習して、そのデータのみに基づいて診断を生成する。
言い換えれば、医療用AIは診断を行うのに十分な知識を持っておらず、診断の不確実性につながる。
そこで本研究では,胸部X線病変情報とともに医師の背景知識を学習することで,知識不足の問題に対処できる不確実性意識学習政策を提案する。
症例はAjou University Hospitalで2,517例,結節像656例であった。
提案モデルでは,92% (IoU 0.2 / FPPI2) の感度がベースラインモデルに比べて10%向上し,不確実性の尺度としてエントロピーが0.2に低下した。
関連論文リスト
- Uncertainty-Aware Large Language Models for Explainable Disease Diagnosis [11.093388930528022]
ConfiDx(コンフィデックス)は、オープンソースのLLMを微調整し、診断基準で作成した、不確実性を考慮した大規模言語モデル(LLM)である。
タスクを形式化し、さまざまな診断の曖昧さを捉えるリッチな注釈付きデータセットを組み立てました。
論文 参考訳(メタデータ) (2025-05-06T12:12:48Z) - Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Leveraging Expert Input for Robust and Explainable AI-Assisted Lung Cancer Detection in Chest X-rays [2.380494879018844]
本研究では,InceptionV3に基づく高機能肺癌検出モデルの解釈可能性とロバスト性について検討した。
我々は,概念ボトルネック手法を活用した専門家主導のアプローチであるClinicXAIを開発する。
論文 参考訳(メタデータ) (2024-03-28T14:15:13Z) - Expert Uncertainty and Severity Aware Chest X-Ray Classification by
Multi-Relationship Graph Learning [48.29204631769816]
我々はCXRレポートから病気ラベルを再抽出し,重症度と分類の不確実性を考慮し,より現実的になるようにした。
以上の結果から, 疾患の重症度と不確実性を考慮したモデルが, 従来の最先端手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-09-06T19:19:41Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Deep Reinforcement Learning Framework for Thoracic Diseases
Classification via Prior Knowledge Guidance [49.87607548975686]
関連疾患に対するラベル付きデータの不足は、正確な診断にとって大きな課題となる。
本稿では,診断エージェントの学習を指導するための事前知識を導入する,新しい深層強化学習フレームワークを提案する。
提案手法の性能はNIHX-ray 14とCheXpertデータセットを用いて実証した。
論文 参考訳(メタデータ) (2023-06-02T01:46:31Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - A two-step explainable approach for COVID-19 computer-aided diagnosis
from chest x-ray images [5.480546613836199]
Chest X-Ray (CXR)イメージングを早期スクリーニングに使用すると、より高速で正確な応答が得られます。
肺の既知の病理(腺腫)を最初に検出する,説明可能な2段階の診断アプローチを提案する。
論文 参考訳(メタデータ) (2021-01-25T16:35:44Z) - Estimating Uncertainty and Interpretability in Deep Learning for
Coronavirus (COVID-19) Detection [0.0]
コンピュータベースの診断にどれだけの自信があるかを知ることは、臨床医にこの技術への信頼を得るのに不可欠である。
本稿では,減量重みに基づくベイズ畳み込みニューラルネットワーク(BCNN)を用いて,ディープラーニングソリューションにおける不確実性を推定する方法について検討する。
不確実性を認識したディープラーニングソリューションが利用できることで、臨床環境でのAI(Artificial Intelligence)の広範な採用が可能になると考えています。
論文 参考訳(メタデータ) (2020-03-22T21:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。