論文の概要: Beyond the First Read: AI-Assisted Perceptual Error Detection in Chest Radiography Accounting for Interobserver Variability
- arxiv url: http://arxiv.org/abs/2506.13049v1
- Date: Mon, 16 Jun 2025 02:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.318667
- Title: Beyond the First Read: AI-Assisted Perceptual Error Detection in Chest Radiography Accounting for Interobserver Variability
- Title(参考訳): 胸部X線撮影におけるAI支援型知覚誤差検出
- Authors: Adhrith Vutukuri, Akash Awasthi, David Yang, Carol C. Wu, Hien Van Nguyen,
- Abstract要約: 本稿では,ポスト解釈コンパニオンシステムであるRADARを紹介する。
RADARは放射線学のアノテーションとCXRの画像を取り込み、地域レベルの分析を行う。
RADARのリコールは0.78、精度は0.44、F1のスコアは0.56であった。
- 参考スコア(独自算出の注目度): 3.32947201358052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest radiography is widely used in diagnostic imaging. However, perceptual errors -- especially overlooked but visible abnormalities -- remain common and clinically significant. Current workflows and AI systems provide limited support for detecting such errors after interpretation and often lack meaningful human--AI collaboration. We introduce RADAR (Radiologist--AI Diagnostic Assistance and Review), a post-interpretation companion system. RADAR ingests finalized radiologist annotations and CXR images, then performs regional-level analysis to detect and refer potentially missed abnormal regions. The system supports a "second-look" workflow and offers suggested regions of interest (ROIs) rather than fixed labels to accommodate inter-observer variation. We evaluated RADAR on a simulated perceptual-error dataset derived from de-identified CXR cases, using F1 score and Intersection over Union (IoU) as primary metrics. RADAR achieved a recall of 0.78, precision of 0.44, and an F1 score of 0.56 in detecting missed abnormalities in the simulated perceptual-error dataset. Although precision is moderate, this reduces over-reliance on AI by encouraging radiologist oversight in human--AI collaboration. The median IoU was 0.78, with more than 90% of referrals exceeding 0.5 IoU, indicating accurate regional localization. RADAR effectively complements radiologist judgment, providing valuable post-read support for perceptual-error detection in CXR interpretation. Its flexible ROI suggestions and non-intrusive integration position it as a promising tool in real-world radiology workflows. To facilitate reproducibility and further evaluation, we release a fully open-source web implementation alongside a simulated error dataset. All code, data, demonstration videos, and the application are publicly available at https://github.com/avutukuri01/RADAR.
- Abstract(参考訳): 胸部X線撮影は画像診断に広く用いられている。
しかし、知覚的誤り(特に見過ごされているが目に見える異常)は、一般的で臨床的に重要なままである。
現在のワークフローとAIシステムは、解釈後にそのようなエラーを検出するための限定的なサポートを提供し、しばしば有意義な人間-AIコラボレーションを欠いている。我々は、ポスト解釈コンパニオンシステムであるRADAR(Radiologist--AI Diagnostic Assistance and Review)を紹介する。
RADARは、最終分類された放射線学のアノテーションとCXR画像を取り込んで、潜在的に欠落する可能性のある異常領域を検出して参照するために、地域レベルの分析を行う。
このシステムは"セカンドルック"ワークフローをサポートし、サーバ間の変動に対応する固定ラベルではなく、関心のある領域(ROI)を提供する。
F1スコアとIoU(Intersection over Union)を主指標として,識別不能なCXR症例から得られたシミュレートされた知覚エラーデータセットを用いてRADARを評価した。
RADARは0.78、精度0.44、F1スコア0.56のリコールを達成した。
精度は適度だが、これは人間とAIのコラボレーションにおける放射線学者の監視を奨励することによって、AIに対する過度な信頼を減らす。
中央値のIoUは0.78で、基準値の90%以上が0.5 IoUを超えており、正確な地域分布を示している。
RADARは放射線医の判断を効果的に補完し、CXR解釈における知覚的エラー検出のための貴重な後読支援を提供する。
その柔軟なROIの提案と非侵襲的な統合は、現実世界の放射線学ワークフローにおいて有望なツールとして位置づけている。
再現性とさらなる評価を容易にするため,シミュレートされたエラーデータセットとともに,完全にオープンソースなWeb実装をリリースする。
すべてのコード、データ、デモビデオ、アプリケーションはhttps://github.com/avutukuri01/RADARで公開されている。
関連論文リスト
- U2AD: Uncertainty-based Unsupervised Anomaly Detection Framework for Detecting T2 Hyperintensity in MRI Spinal Cord [7.811634659561162]
脊髄MR画像におけるT2過強度は、変性頚髄症などの病態において重要なバイオマーカーである。
深層学習法は病変検出の可能性を示してきたが、ほとんどの教師付きアプローチは大きな注釈付きデータセットに大きく依存している。
本稿では,これらの制約に対処するため,不確実性に基づくunsupervised Anomaly DetectionフレームワークであるU2ADを提案する。
論文 参考訳(メタデータ) (2025-03-17T17:33:32Z) - I-AI: A Controllable & Interpretable AI System for Decoding
Radiologists' Intense Focus for Accurate CXR Diagnoses [9.260958560874812]
解釈可能な人工知能(I-AI)は、新しく統一された制御可能な解釈可能なパイプラインである。
私たちのI-AIは、放射線科医がどこに見えるか、特定の領域にどのくらい焦点を合わせるか、どの発見を診断するか、という3つの重要な疑問に対処しています。
論文 参考訳(メタデータ) (2023-09-24T04:48:44Z) - Cross-Modal Causal Intervention for Medical Report Generation [107.76649943399168]
放射線医学報告生成(RRG)は, コンピュータ支援診断と薬剤指導に不可欠である。
視覚言語的バイアスによる急激な相関により、正確な病変記述の生成は依然として困難である。
我々はCrossModal Causal Representation Learning (CMCRL)という2段階のフレームワークを提案する。
IU-XrayとMIMIC-CXRの実験により、我々のCMCRLパイプラインは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - A clinical validation of VinDr-CXR, an AI system for detecting abnormal
chest radiographs [0.0]
X線スキャンで異常を検出するためのAIベースのシステムを検証するメカニズムを実証する。
このシステムは、胸部X線上の異常を検出するためのF1スコア(リコールのハーモニック平均と精度-0.653 CI 0.635, 0.671)を達成する。
論文 参考訳(メタデータ) (2021-04-06T02:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。