論文の概要: Enhancing Radiographic Disease Detection with MetaCheX, a Context-Aware Multimodal Model
- arxiv url: http://arxiv.org/abs/2509.12287v1
- Date: Mon, 15 Sep 2025 00:44:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.68393
- Title: Enhancing Radiographic Disease Detection with MetaCheX, a Context-Aware Multimodal Model
- Title(参考訳): コンテキスト対応マルチモーダルモデルMetaCheXによる放射線疾患検出の強化
- Authors: Nathan He, Cody Chen,
- Abstract要約: 既存の胸部放射線学のディープラーニングモデルは、診断精度と公平性を制限し、患者のメタデータを無視することが多い。
胸部X線画像を構造化された患者メタデータと統合して臨床診断を再現する新しいフレームワークであるMetaCheXを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deep learning models for chest radiology often neglect patient metadata, limiting diagnostic accuracy and fairness. To bridge this gap, we introduce MetaCheX, a novel multimodal framework that integrates chest X-ray images with structured patient metadata to replicate clinical decision-making. Our approach combines a convolutional neural network (CNN) backbone with metadata processed by a multilayer perceptron through a shared classifier. Evaluated on the CheXpert Plus dataset, MetaCheX consistently outperformed radiograph-only baseline models across multiple CNN architectures. By integrating metadata, the overall diagnostic accuracy was significantly improved, measured by an increase in AUROC. The results of this study demonstrate that metadata reduces algorithmic bias and enhances model generalizability across diverse patient populations. MetaCheX advances clinical artificial intelligence toward robust, context-aware radiographic disease detection.
- Abstract(参考訳): 既存の胸部放射線学のディープラーニングモデルは、診断精度と公平性を制限し、患者のメタデータを無視することが多い。
このギャップを埋めるために,胸部X線画像を構造化された患者のメタデータと統合し,臨床的意思決定を再現する新しいマルチモーダルフレームワークであるMetaCheXを紹介する。
提案手法は、畳み込みニューラルネットワーク(CNN)のバックボーンと、共有分類器を介して多層パーセプトロンによって処理されるメタデータを組み合わせる。
CheXpert Plusデータセットに基づいて評価されたMetaCheXは、複数のCNNアーキテクチャをまたいだラジオグラフのみのベースラインモデルよりも一貫して優れていた。
メタデータを統合することにより,AUROCの増加により診断精度が有意に向上した。
本研究は, メタデータがアルゴリズムバイアスを低減し, 多様な患者集団におけるモデル一般化可能性を高めることを実証した。
MetaCheXは、堅牢でコンテキスト対応の放射線病検出に向けて、臨床人工知能を進歩させる。
関連論文リスト
- RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - SynthEnsemble: A Fusion of CNN, Vision Transformer, and Hybrid Models for Multi-Label Chest X-Ray Classification [0.6218519716921521]
我々は,異なる疾患に対応する胸部X線パターンの同定に深層学習技術を採用している。
最も優れた個人モデルはCoAtNetで、受信機の動作特性曲線(AUROC)の84.2%の領域を達成した。
論文 参考訳(メタデータ) (2023-11-13T21:07:07Z) - MDF-Net for abnormality detection by fusing X-rays with clinical data [14.347359031598813]
本研究は,患者の臨床情報が深層学習(DL)分類器の性能に及ぼす影響について検討した。
患者の臨床データと胸部X線を同時に処理できる2つの融合法からなる新しいアーキテクチャを提案する。
その結果, 患者の臨床データをDLモデルに組み込むことで, 胸部X線像の病的局在を平均精度で12%改善できることがわかった。
論文 参考訳(メタデータ) (2023-02-26T19:16:57Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - An augmentation strategy to mimic multi-scanner variability in MRI [0.2839215671218125]
ほとんどの公開脳MRIデータセットは、スキャナーとプロトコルの点で非常に均質です。
このようなデータから学習するモデルがマルチセンタデータやマルチスキャナデータに一般化することは困難です。
本研究では,実世界の臨床データにみられる強度とコントラストの差分を近似するために,新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-03-23T14:49:38Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。