論文の概要: Following the Diagnostic Trace: Visual Cognition-guided Cooperative Network for Chest X-Ray Diagnosis
- arxiv url: http://arxiv.org/abs/2602.21657v1
- Date: Wed, 25 Feb 2026 07:35:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.747332
- Title: Following the Diagnostic Trace: Visual Cognition-guided Cooperative Network for Chest X-Ray Diagnosis
- Title(参考訳): 胸部X線診断における視覚認知誘導協調ネットワーク
- Authors: Shaoxuan Wu, Jingkun Chen, Chong Ma, Cong Shen, Xiao Zhang, Jun Feng,
- Abstract要約: 協調診断パラダイムを実現するために,視覚認知誘導協調ネットワーク(VCC-Net)を提案する。
VCC-Netは視覚認知(VC)を中心に、視線追跡やマウスなどの臨床的に互換性のあるインターフェースを使用して、診断中の放射線医の視覚的検索の痕跡や注意パターンを捉えている。
公開データセットであるSIIM-ACR、EGD-CXR、自己構築されたTB-Mouseデータセットの実験は、それぞれ88.40%、85.05%、92.41%の分類精度を達成した。
- 参考スコア(独自算出の注目度): 15.510383551110849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer-aided diagnosis (CAD) has significantly advanced automated chest X-ray diagnosis but remains isolated from clinical workflows and lacks reliable decision support and interpretability. Human-AI collaboration seeks to enhance the reliability of diagnostic models by integrating the behaviors of controllable radiologists. However, the absence of interactive tools seamlessly embedded within diagnostic routines impedes collaboration, while the semantic gap between radiologists' decision-making patterns and model representations further limits clinical adoption. To overcome these limitations, we propose a visual cognition-guided collaborative network (VCC-Net) to achieve the cooperative diagnostic paradigm. VCC-Net centers on visual cognition (VC) and employs clinically compatible interfaces, such as eye-tracking or the mouse, to capture radiologists' visual search traces and attention patterns during diagnosis. VCC-Net employs VC as a spatial cognition guide, learning hierarchical visual search strategies to localize diagnostically key regions. A cognition-graph co-editing module subsequently integrates radiologist VC with model inference to construct a disease-aware graph. The module captures dependencies among anatomical regions and aligns model representations with VC-driven features, mitigating radiologist bias and facilitating complementary, transparent decision-making. Experiments on the public datasets SIIM-ACR, EGD-CXR, and self-constructed TB-Mouse dataset achieved classification accuracies of 88.40%, 85.05%, and 92.41%, respectively. The attention maps produced by VCC-Net exhibit strong concordance with radiologists' gaze distributions, demonstrating a mutual reinforcement of radiologist and model inference. The code is available at https://github.com/IPMI-NWU/VCC-Net.
- Abstract(参考訳): コンピュータ支援診断 (CAD) は, 胸部X線診断が大幅に進歩するが, 臨床ワークフローからは分離され, 信頼性に乏しい。
人間とAIのコラボレーションは、制御可能な放射線技師の行動を統合することにより、診断モデルの信頼性を高めることを目指している。
しかし、診断ルーチン内にシームレスに埋め込まれたインタラクティブツールがないことは、放射線技師の意思決定パターンとモデル表現とのセマンティックなギャップが臨床応用をさらに制限する一方で、協調を妨げている。
これらの制約を克服するために,協調診断パラダイムを実現するために,視覚認知誘導協調ネットワーク(VCC-Net)を提案する。
VCC-Netは視覚認知(VC)を中心に、視線追跡やマウスなどの臨床的に互換性のあるインターフェースを使用して、診断中の放射線医の視覚的検索の痕跡や注意パターンを捉えている。
VCC-Netは、空間認知ガイドとしてVCを採用し、診断上重要な領域をローカライズするために階層的なビジュアル検索戦略を学習する。
認知グラフ共編集モジュールはその後、放射線学者のVCとモデル推論を統合して、疾患対応グラフを構築する。
このモジュールは解剖学的領域間の依存関係をキャプチャし、モデル表現をVC駆動の特徴と整合させ、放射線学者のバイアスを緩和し、補完的で透明な意思決定を容易にする。
公開データセットであるSIIM-ACR、EGD-CXR、自己構築されたTB-Mouseデータセットの実験は、それぞれ88.40%、85.05%、92.41%の分類精度を達成した。
VCC-Netが作成したアテンションマップは、放射線学者の視線分布と強く一致し、放射線学者とモデル推論の相互強化を示す。
コードはhttps://github.com/IPMI-NWU/VCC-Netで公開されている。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - MvKeTR: Chest CT Report Generation with Multi-View Perception and Knowledge Enhancement [1.6355783973385114]
多視点認識知識強化型TansfoRmer(MvKeTR)
複数の解剖学的ビューから診断情報を効果的に合成するために、ビューアウェアのMVPAを提案する。
クエリボリュームに基づいて、最も類似したレポートを取得するために、Cross-Modal Knowledge Enhancer (CMKE) が考案されている。
論文 参考訳(メタデータ) (2024-11-27T12:58:23Z) - Multimodal Learning and Cognitive Processes in Radiology: MedGaze for Chest X-ray Scanpath Prediction [10.388541520456714]
提案システムは,放射線学報告やCXR画像から視線シーケンスを予測することを目的としている。
本モデルでは, 医用スキャンパス予測において重要な固定座標と期間を予測し, コンピュータビジョンコミュニティにおける既存モデルよりも優れていた。
放射線学者の評価に基づいて、MedGazeは関連する領域に焦点をあてたヒトのような視線配列を生成することができる。
論文 参考訳(メタデータ) (2024-06-28T06:38:58Z) - Joint enhancement of automatic chest X-ray diagnosis and radiological gaze prediction with multi-stage cooperative learning [2.64700310378485]
胸部X線検査における関節疾患診断のための新しい深層学習フレームワークを提案する。
具体的には、DenseNet201バックボーンとResidualおよびSqueeze-and-Excitationブロックベースのエンコーダの両方を活用する、新しいデュアルエンコーダマルチタスクUNetを導入する。
提案手法は胸部X線診断における既存の手法と視覚的注意マップの精度を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-03-25T17:31:12Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Polar-Net: A Clinical-Friendly Model for Alzheimer's Disease Detection
in OCTA Images [53.235117594102675]
オプティカルコヒーレンス・トモグラフィーは、網膜微小血管の画像化によってアルツハイマー病(AD)を検出するための有望なツールである。
我々はPolar-Netと呼ばれる新しいディープラーニングフレームワークを提案し、解釈可能な結果を提供し、臨床上の事前知識を活用する。
Polar-Netは既存の最先端の手法よりも優れており,網膜血管変化とADとの関連性について,より貴重な病理学的証拠を提供する。
論文 参考訳(メタデータ) (2023-11-10T11:49:49Z) - Cross-Modal Causal Intervention for Medical Report Generation [107.76649943399168]
放射線医学報告生成(RRG)は, コンピュータ支援診断と薬剤指導に不可欠である。
視覚言語的バイアスによる急激な相関により、正確な病変記述の生成は依然として困難である。
我々はCrossModal Causal Representation Learning (CMCRL)という2段階のフレームワークを提案する。
IU-XrayとMIMIC-CXRの実験により、我々のCMCRLパイプラインは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。