論文の概要: A Vision-Language Foundation Model to Enhance Efficiency of Chest X-ray Interpretation
- arxiv url: http://arxiv.org/abs/2401.12208v2
- Date: Wed, 18 Dec 2024 20:56:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 18:44:15.626234
- Title: A Vision-Language Foundation Model to Enhance Efficiency of Chest X-ray Interpretation
- Title(参考訳): 胸部X線解釈の効率向上のための視覚言語基礎モデル
- Authors: Zhihong Chen, Maya Varma, Justin Xu, Magdalini Paschali, Dave Van Veen, Andrew Johnston, Alaa Youssef, Louis Blankemeier, Christian Bluethgen, Stephan Altmayer, Jeya Maria Jose Valanarasu, Mohamed Siddig Eltayeb Muneer, Eduardo Pontes Reis, Joseph Paul Cohen, Cameron Olsen, Tanishq Mathew Abraham, Emily B. Tsai, Christopher F. Beaulieu, Jenia Jitsev, Sergios Gatidis, Jean-Benoit Delbrouck, Akshay S. Chaudhari, Curtis P. Langlotz,
- Abstract要約: 初期診断試験としての費用効果のため、毎年14億個の胸部X線(CXR)が実施されている。
この規模の放射線学研究は、CXRの解釈と文書を合理化する重要な機会を提供する。
我々は、視覚言語基礎モデル(CheXagent)をトレーニングするために、大規模データセット(CheXinstruct)を構築した。
- 参考スコア(独自算出の注目度): 22.8169684575764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over 1.4 billion chest X-rays (CXRs) are performed annually due to their cost-effectiveness as an initial diagnostic test. This scale of radiological studies provides a significant opportunity to streamline CXR interpretation and documentation. While foundation models are a promising solution, the lack of publicly available large-scale datasets and benchmarks inhibits their iterative development and real-world evaluation. To overcome these challenges, we constructed a large-scale dataset (CheXinstruct), which we utilized to train a vision-language foundation model (CheXagent). We systematically demonstrated competitive performance across eight distinct task types on our novel evaluation benchmark (CheXbench). Beyond technical validation, we assessed the real-world utility of CheXagent in directly drafting radiology reports. Our clinical assessment with eight radiologists revealed a 36% time saving for residents using CheXagent-drafted reports, while attending radiologists showed no significant time difference editing resident-drafted or CheXagent-drafted reports. The CheXagent-drafted reports improved the writing efficiency of both radiology residents and attending radiologists in 81% and 61% of cases, respectively, without loss of quality. Overall, we demonstrate that CheXagent can effectively perform a variety of CXR interpretation tasks and holds potential to assist radiologists in routine clinical workflows.
- Abstract(参考訳): 初期診断試験としての費用効果のため、毎年14億個の胸部X線(CXR)が実施されている。
この規模の放射線学研究は、CXRの解釈と文書を合理化する重要な機会を提供する。
ファンデーションモデルは有望なソリューションであるが、公開可能な大規模なデータセットとベンチマークの欠如は、彼らの反復的な開発と実世界の評価を阻害する。
これらの課題を克服するために、私たちは、視覚言語基礎モデル(CheXagent)のトレーニングに利用した大規模なデータセット(CheXinstruct)を構築しました。
新たな評価ベンチマーク(CheXbench)において,8種類のタスクタイプ間での競合性能を系統的に検証した。
技術的検証の他に,CheXagentの実際の実用性を評価し,放射線学報告を直接起草した。
8例の臨床評価では,CheXagent-draftedレポートでは36%の省力化がみられ,また,CheXagent-draftedレポートの編集に有意な時間差は認められなかった。
CheXagent-draftedの報告では, 放射線科医と放射線科医の筆記効率が81%, 61%に向上し, 品質の低下は認められなかった。
全体として、CheXagentは様々なCXR解釈タスクを効果的に実行でき、定期的な臨床ワークフローにおいて放射線科医を支援する可能性を秘めている。
関連論文リスト
- ChestX-Reasoner: Advancing Radiology Foundation Models with Reasoning through Step-by-Step Verification [57.22053411719822]
ChestX-Reasoner(チェストX-Reasoner)は、臨床報告から直接採掘されるプロセスの監督を活用するために設計された放射線診断MLLMである。
我々の2段階のトレーニングフレームワークは、モデル推論と臨床標準との整合性を高めるために、プロセス報酬によって指導された教師付き微調整と強化学習を組み合わせる。
論文 参考訳(メタデータ) (2025-04-29T16:48:23Z) - Chest X-ray Foundation Model with Global and Local Representations Integration [13.736829173377355]
CheXFoundは、堅牢なCXR表現を学び、幅広い下流タスクを効果的に一般化するビジョン基盤モデルである。
我々はCheXFoundをキュレートしたCXR-1Mデータセットで事前訓練し、公開ソースから100万以上のユニークなCXRを作成した。
以上の結果から,CheXFoundは有病率の異なる40の疾患の分類において,最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2025-02-07T18:16:15Z) - ReXrank: A Public Leaderboard for AI-Powered Radiology Report Generation [16.687723916901728]
我々は、AIを利用した放射線学レポート生成を評価するためのリーダーボードで課題であるReXrankを紹介する。
このフレームワークには1万の研究からなる最大のテストデータセットであるReXGradientが組み込まれています。
この標準化された評価フレームワークを提供することで、ReXrankはモデルパフォーマンスの有意義な比較を可能にします。
論文 参考訳(メタデータ) (2024-11-22T18:40:02Z) - CXR-Agent: Vision-language models for chest X-ray interpretation with uncertainty aware radiology reporting [0.0]
胸部X線解釈のための基礎的視覚言語モデルとして, 一般に公開されている技術の現状を評価した。
視覚言語モデルは、しばしば自信のある言語と幻覚し、臨床解釈を遅くする。
我々は,CheXagentの線形プローブとBioViL-Tのフレーズグラウンドティングツールを用いて,エージェントベースの視覚言語によるレポート生成手法を開発した。
論文 参考訳(メタデータ) (2024-07-11T18:39:19Z) - Self-supervised vision-langage alignment of deep learning representations for bone X-rays analysis [53.809054774037214]
本稿では, 骨X線とフレンチレポートを組み合わせることで, 視覚言語による事前訓練を活用することを提案する。
骨X線表現にまつわる埋め込み空間を形成するために、フランスの報告を統合する最初の研究である。
論文 参考訳(メタデータ) (2024-05-14T19:53:20Z) - WoLF: Wide-scope Large Language Model Framework for CXR Understanding [8.265578494822087]
胸部X線理解のための広スコープ大言語モデルフレームワークを提案する。
実際の臨床シナリオにおける正確な診断に利用される多面的患者の記録を収集する。
論文 参考訳(メタデータ) (2024-03-19T06:39:23Z) - MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Longitudinal Data and a Semantic Similarity Reward for Chest X-Ray Report Generation [7.586632627817609]
放射線学者は、解釈と報告を必要とする胸部X線(CXR)の量の増加のために、高いバーンアウト率に直面している。
提案するCXRレポートジェネレータは,ワークフローの要素を統合し,強化学習のための新たな報酬を導入する。
本研究の結果から, 提案モデルでは, 最新技術モデルよりも, 放射線学者の報告に適合した報告が生成されることがわかった。
論文 参考訳(メタデータ) (2023-07-19T05:41:14Z) - Revisiting Computer-Aided Tuberculosis Diagnosis [56.80999479735375]
結核(TB)は世界的な健康上の脅威であり、毎年何百万人もの死者を出している。
深層学習を用いたコンピュータ支援結核診断 (CTD) は有望であるが, 限られたトレーニングデータによって進行が妨げられている。
結核X線(TBX11K)データセットは11,200個の胸部X線(CXR)画像とそれに対応するTB領域のバウンディングボックスアノテーションを含む。
このデータセットは、高品質なCTDのための洗練された検出器のトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-07-06T08:27:48Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Optimising Chest X-Rays for Image Analysis by Identifying and Removing
Confounding Factors [49.005337470305584]
新型コロナウイルス(COVID-19)のパンデミック(パンデミック)の間、新型コロナウイルス(COVID-19)の診断のための緊急設定で実施される画像の量は、臨床用CXRの取得が広範囲に及んだ。
公開データセット内の臨床的に取得されたCXRの変動品質は、アルゴリズムのパフォーマンスに大きな影響を及ぼす可能性がある。
我々は、新型コロナウイルスの胸部X線データセットを前処理し、望ましくないバイアスを取り除くための、シンプルで効果的なステップワイズアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-22T13:57:04Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - COVID-Net CXR-2: An Enhanced Deep Convolutional Neural Network Design
for Detection of COVID-19 Cases from Chest X-ray Images [58.35627258364233]
RT-PCR検査への無料スクリーニング戦略として胸部X線(CXR)イメージングの使用は成長し続けています。
我々は、CXR画像からCOVID-19を検出するための深層畳み込みニューラルネットワーク設計であるCOVID-Net CXR-2を紹介する。
ベンチマークデータセットは、少なくとも51カ国16,656人の多国籍コホートから19,203個のCXR画像で構成された。
論文 参考訳(メタデータ) (2021-05-14T04:29:21Z) - Image Embedding and Model Ensembling for Automated Chest X-Ray
Interpretation [0.0]
我々は、自動胸部X線診断モデルを開発するための機械学習アプローチをいくつか提示および研究する。
特に,chexpertデータセット上で複数の畳み込みニューラルネットワーク(cnn)をトレーニングした。
学習したCNNを用いてCXR画像の埋め込みを計算し、2組のツリーベース分類器を訓練した。
論文 参考訳(メタデータ) (2021-05-05T14:48:59Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Automated Radiological Report Generation For Chest X-Rays With
Weakly-Supervised End-to-End Deep Learning [17.315387269810426]
我々は12,000以上のCXRスキャンと放射線学的レポートを含むデータベースを構築した。
我々は,深層畳み込みニューラルネットワークとアテンション機構を持つリカレントネットワークに基づくモデルを開発した。
このモデルは、与えられたスキャンを自動的に認識し、レポートを生成する。
論文 参考訳(メタデータ) (2020-06-18T08:12:54Z) - Interpreting Chest X-rays via CNNs that Exploit Hierarchical Disease
Dependencies and Uncertainty Labels [0.33598755777055367]
本稿では,14の一般的な胸部疾患の存在と観察を診断するための,深部畳み込みニューラルネットワーク(CNN)に基づく枠組みを提案する。
提案手法はCheXpertコンペティションのinde-pendentテストセット上でも評価され, 経験者5名によるアパネルでアノテートされた500個のCXR研究が含まれている。
論文 参考訳(メタデータ) (2020-05-25T11:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。