論文の概要: CheXagent: Towards a Foundation Model for Chest X-Ray Interpretation
- arxiv url: http://arxiv.org/abs/2401.12208v1
- Date: Mon, 22 Jan 2024 18:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 12:49:33.459496
- Title: CheXagent: Towards a Foundation Model for Chest X-Ray Interpretation
- Title(参考訳): CheXagent: 胸部X線解釈の基礎モデルを目指して
- Authors: Zhihong Chen, Maya Varma, Jean-Benoit Delbrouck, Magdalini Paschali,
Louis Blankemeier, Dave Van Veen, Jeya Maria Jose Valanarasu, Alaa Youssef,
Joseph Paul Cohen, Eduardo Pontes Reis, Emily B. Tsai, Andrew Johnston,
Cameron Olsen, Tanishq Mathew Abraham, Sergios Gatidis, Akshay S. Chaudhari,
Curtis Langlotz
- Abstract要約: 胸部X線 (CXRs) は, 臨床検査において最も頻度の高い画像検査である。
近年,視覚言語基礎モデル(FM)の開発が進み,CXRの自動解釈が可能になった。
- 参考スコア(独自算出の注目度): 21.31741755127183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest X-rays (CXRs) are the most frequently performed imaging test in
clinical practice. Recent advances in the development of vision-language
foundation models (FMs) give rise to the possibility of performing automated
CXR interpretation, which can assist physicians with clinical decision-making
and improve patient outcomes. However, developing FMs that can accurately
interpret CXRs is challenging due to the (1) limited availability of
large-scale vision-language datasets in the medical image domain, (2) lack of
vision and language encoders that can capture the complexities of medical data,
and (3) absence of evaluation frameworks for benchmarking the abilities of FMs
on CXR interpretation. In this work, we address these challenges by first
introducing \emph{CheXinstruct} - a large-scale instruction-tuning dataset
curated from 28 publicly-available datasets. We then present \emph{CheXagent} -
an instruction-tuned FM capable of analyzing and summarizing CXRs. To build
CheXagent, we design a clinical large language model (LLM) for parsing
radiology reports, a vision encoder for representing CXR images, and a network
to bridge the vision and language modalities. Finally, we introduce
\emph{CheXbench} - a novel benchmark designed to systematically evaluate FMs
across 8 clinically-relevant CXR interpretation tasks. Extensive quantitative
evaluations and qualitative reviews with five expert radiologists demonstrate
that CheXagent outperforms previously-developed general- and medical-domain FMs
on CheXbench tasks. Furthermore, in an effort to improve model transparency, we
perform a fairness evaluation across factors of sex, race and age to highlight
potential performance disparities. Our project is at
\url{https://stanford-aimi.github.io/chexagent.html}.
- Abstract(参考訳): 胸部X線 (CXRs) は, 臨床検査において最も頻度の高い画像検査である。
視覚言語基礎モデル(fms)の開発における最近の進歩は、医師が臨床意思決定を補助し、患者の予後を改善するcxr自動解釈を行う可能性をもたらす。
しかし,CXRを正確に解釈できるFMの開発は,(1)医療画像領域における大規模ビジョン言語データセットの可用性の限界,(2)医療データの複雑さを捉えるビジョンと言語エンコーダの欠如,(3)CXR解釈におけるFMの能力を評価するための評価フレームワークの欠如など,困難である。
本研究では,28の公開データセットから算出した大規模命令チューニングデータセットである \emph{CheXinstruct} を導入することで,これらの課題に対処する。
次に,CXRの解析と要約が可能な命令調整FMを提案する。
我々はCheXagentを構築するために,放射線学報告を解析するための臨床大言語モデル(LLM),CXR画像を表現するビジョンエンコーダ,ビジョンと言語モダリティをブリッジするネットワークを設計する。
最後に,臨床関連8つのCXR解釈タスクのFMを体系的に評価する新しいベンチマークであるemph{CheXbench}を紹介する。
5人の専門放射線学者による広範囲な定量的評価と質的評価により、CheXagentはCheXbenchタスクにおいて、これまで開発された一般ドメインと医療ドメインのFMよりも優れていることが示された。
さらに,モデルの透明性を高めるために,性,人種,年齢の要因をまたいで公平性評価を行い,潜在的なパフォーマンス格差を強調する。
私たちのプロジェクトは \url{https://stanford-aimi.github.io/chexagent.html}です。
関連論文リスト
- Chest X-ray Foundation Model with Global and Local Representations Integration [13.736829173377355]
CheXFoundは、堅牢なCXR表現を学び、幅広い下流タスクを効果的に一般化するビジョン基盤モデルである。
我々はCheXFoundをキュレートしたCXR-1Mデータセットで事前訓練し、公開ソースから100万以上のユニークなCXRを作成した。
以上の結果から,CheXFoundは有病率の異なる40の疾患の分類において,最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2025-02-07T18:16:15Z) - Can Modern LLMs Act as Agent Cores in Radiology Environments? [54.36730060680139]
大規模言語モデル(LLM)は、様々な領域にわたる精度と解釈性の向上を提供する。
本論文は, コンクリートラジオロジー剤構築の前提条件について検討することを目的とする。
LLMをベースとしたエージェントのための総合的な総合的総合評価データセットRadABench-Dataを提案する。
第二にRadABench-EvalPlatは、プロンプト駆動ワークフローを特徴とするエージェントのための新しい評価プラットフォームである。
論文 参考訳(メタデータ) (2024-12-12T18:20:16Z) - ReXrank: A Public Leaderboard for AI-Powered Radiology Report Generation [16.687723916901728]
我々は、AIを利用した放射線学レポート生成を評価するためのリーダーボードで課題であるReXrankを紹介する。
このフレームワークには1万の研究からなる最大のテストデータセットであるReXGradientが組み込まれています。
この標準化された評価フレームワークを提供することで、ReXrankはモデルパフォーマンスの有意義な比較を可能にします。
論文 参考訳(メタデータ) (2024-11-22T18:40:02Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Longitudinal Data and a Semantic Similarity Reward for Chest X-Ray Report Generation [7.586632627817609]
放射線学者は、解釈と報告を必要とする胸部X線(CXR)の量の増加のために、高いバーンアウト率に直面している。
提案するCXRレポートジェネレータは,ワークフローの要素を統合し,強化学習のための新たな報酬を導入する。
本研究の結果から, 提案モデルでは, 最新技術モデルよりも, 放射線学者の報告に適合した報告が生成されることがわかった。
論文 参考訳(メタデータ) (2023-07-19T05:41:14Z) - Revisiting Computer-Aided Tuberculosis Diagnosis [56.80999479735375]
結核(TB)は世界的な健康上の脅威であり、毎年何百万人もの死者を出している。
深層学習を用いたコンピュータ支援結核診断 (CTD) は有望であるが, 限られたトレーニングデータによって進行が妨げられている。
結核X線(TBX11K)データセットは11,200個の胸部X線(CXR)画像とそれに対応するTB領域のバウンディングボックスアノテーションを含む。
このデータセットは、高品質なCTDのための洗練された検出器のトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-07-06T08:27:48Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - COVID-Net CXR-2: An Enhanced Deep Convolutional Neural Network Design
for Detection of COVID-19 Cases from Chest X-ray Images [58.35627258364233]
RT-PCR検査への無料スクリーニング戦略として胸部X線(CXR)イメージングの使用は成長し続けています。
我々は、CXR画像からCOVID-19を検出するための深層畳み込みニューラルネットワーク設計であるCOVID-Net CXR-2を紹介する。
ベンチマークデータセットは、少なくとも51カ国16,656人の多国籍コホートから19,203個のCXR画像で構成された。
論文 参考訳(メタデータ) (2021-05-14T04:29:21Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Automated Radiological Report Generation For Chest X-Rays With
Weakly-Supervised End-to-End Deep Learning [17.315387269810426]
我々は12,000以上のCXRスキャンと放射線学的レポートを含むデータベースを構築した。
我々は,深層畳み込みニューラルネットワークとアテンション機構を持つリカレントネットワークに基づくモデルを開発した。
このモデルは、与えられたスキャンを自動的に認識し、レポートを生成する。
論文 参考訳(メタデータ) (2020-06-18T08:12:54Z) - Interpreting Chest X-rays via CNNs that Exploit Hierarchical Disease
Dependencies and Uncertainty Labels [0.33598755777055367]
本稿では,14の一般的な胸部疾患の存在と観察を診断するための,深部畳み込みニューラルネットワーク(CNN)に基づく枠組みを提案する。
提案手法はCheXpertコンペティションのinde-pendentテストセット上でも評価され, 経験者5名によるアパネルでアノテートされた500個のCXR研究が含まれている。
論文 参考訳(メタデータ) (2020-05-25T11:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。