論文の概要: Longitudinal Data and a Semantic Similarity Reward for Chest X-Ray
Report Generation
- arxiv url: http://arxiv.org/abs/2307.09758v1
- Date: Wed, 19 Jul 2023 05:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 15:27:04.259672
- Title: Longitudinal Data and a Semantic Similarity Reward for Chest X-Ray
Report Generation
- Title(参考訳): 胸部x線レポート生成における縦断データと意味的類似性
- Authors: Aaron Nicolson, Jason Dowling, and Bevan Koopman
- Abstract要約: 胸部X線(CXR)レポート生成は, 解釈効率を向上させるための有望なアプローチである。
そこで本稿では, 縦断データを考慮した放射線技師のワークフローとよりインラインなフレームワークを提案する。
また,CXR-BERTに基づく強化学習のための新たな報奨を提案し,レポート間の類似性を計算した。
- 参考スコア(独自算出の注目度): 8.487852486413653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest X-Ray (CXR) report generation is a promising approach to improving the
efficiency of CXR interpretation. However, a significant increase in diagnostic
accuracy is required before that can be realised. Motivated by this, we propose
a framework that is more inline with a radiologist's workflow by considering
longitudinal data. Here, the decoder is additionally conditioned on the report
from the subject's previous imaging study via a prompt. We also propose a new
reward for reinforcement learning based on CXR-BERT, which computes the
similarity between reports. We conduct experiments on the MIMIC-CXR dataset.
The results indicate that longitudinal data improves CXR report generation.
CXR-BERT is also shown to be a promising alternative to the current
state-of-the-art reward based on RadGraph. This investigation indicates that
longitudinal CXR report generation can offer a substantial increase in
diagnostic accuracy. Our Hugging Face model is available at:
https://huggingface.co/aehrc/cxrmate and code is available at:
https://github.com/aehrc/cxrmate.
- Abstract(参考訳): 胸部X線(CXR)レポート生成は,CXR解釈の効率向上に期待できる手法である。
しかし、それを実現するには診断精度の大幅な向上が必要である。
そこで本稿では, 縦断データを考慮した放射線技師のワークフローとよりインラインなフレームワークを提案する。
ここで、デコーダは、プロンプトを介して、被写体の前回のイメージング研究のレポートにさらに条件付けされる。
また,報告間の類似性を計算するcxr-bertに基づく強化学習に対する新たな報酬を提案する。
mimic-cxrデータセットで実験を行う。
その結果、縦断データはcxrレポート生成を改善した。
また、CXR-BERTはRadGraphに基づく現在の最先端の報酬に代わる有望な選択肢であることも示されている。
本研究は, 縦断的CXRレポート生成が診断精度を大幅に向上させることを示す。
私たちのHugging Faceモデルは、https://huggingface.co/aehrc/cxrmateで利用可能です。
関連論文リスト
- WoLF: Wide-scope Large Language Model Framework for CXR Understanding [8.265578494822087]
胸部X線理解のための広スコープ大言語モデルフレームワークを提案する。
実際の臨床シナリオにおける正確な診断に利用される多面的患者の記録を収集する。
論文 参考訳(メタデータ) (2024-03-19T06:39:23Z) - Large Model driven Radiology Report Generation with Clinical Quality
Reinforcement Learning [16.849933628738277]
放射線学報告生成 (RRG) は, 放射線技師の作業量削減の可能性から注目されている。
本稿では,新しいRRG法である textbfLM-RRG について紹介する。
MIMIC-CXRおよびIU-Xrayデータセットを用いた実験により,本手法が技術状況よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-11T13:47:11Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Improving Radiology Report Generation Systems by Removing Hallucinated
References to Non-existent Priors [1.1110995501996481]
本稿では,放射線学報告における過去の文献参照を除去する2つの方法を提案する。
GPT-3をベースとした少数ショットによる医療報告の書き直し手法と,BioBERTをベースとしたトークン分類手法により,先行参照語を直接削除する手法である。
CXR-ReDonEと呼ばれる再学習モデルでは,臨床測定値に対する従来のレポート生成手法を上回り,平均BERTSスコア0.2351(絶対改善率2.57%)を達成した。
論文 参考訳(メタデータ) (2022-09-27T00:44:41Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Automated Radiological Report Generation For Chest X-Rays With
Weakly-Supervised End-to-End Deep Learning [17.315387269810426]
我々は12,000以上のCXRスキャンと放射線学的レポートを含むデータベースを構築した。
我々は,深層畳み込みニューラルネットワークとアテンション機構を持つリカレントネットワークに基づくモデルを開発した。
このモデルは、与えられたスキャンを自動的に認識し、レポートを生成する。
論文 参考訳(メタデータ) (2020-06-18T08:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。