論文の概要: Boosting Radiology Report Generation by Infusing Comparison Prior
- arxiv url: http://arxiv.org/abs/2305.04561v1
- Date: Mon, 8 May 2023 09:12:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 14:57:57.712501
- Title: Boosting Radiology Report Generation by Infusing Comparison Prior
- Title(参考訳): 比較前倒しによる放射線被ばく発生の促進
- Authors: Sanghwan Kim, Farhad Nooralahzadeh, Morteza Rohanian, Koji Fujimoto,
Mizuho Nishio, Ryo Sakamoto, Fabio Rinaldi, and Michael Krauthammer
- Abstract要約: 我々は,IU X線とMIMIC-CXRデータセットの放射線学レポートから,ラベルを用いた先行情報を抽出する手法を提案する。
この比較は、最先端のトランスフォーマーベースのモデルに組み込まれ、より現実的で包括的なレポートを生成することができる。
提案手法はIU X線とMIMIC-CXRのデータセットで検証し,従来の最先端モデルよりも,自動評価と人的評価の両方で優れていることを確認した。
- 参考スコア(独自算出の注目度): 7.054671146863795
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current transformer-based models achieved great success in generating
radiology reports from chest X-ray images. Nonetheless, one of the major issues
is the model's lack of prior knowledge, which frequently leads to false
references to non-existent prior exams in synthetic reports. This is mainly due
to the knowledge gap between radiologists and the generation models:
radiologists are aware of the prior information of patients to write a medical
report, while models only receive X-ray images at a specific time. To address
this issue, we propose a novel approach that employs a labeler to extract
comparison prior information from radiology reports in the IU X-ray and
MIMIC-CXR datasets. This comparison prior is then incorporated into
state-of-the-art transformer-based models, allowing them to generate more
realistic and comprehensive reports. We test our method on the IU X-ray and
MIMIC-CXR datasets and find that it outperforms previous state-of-the-art
models in terms of both automatic and human evaluation metrics. In addition,
unlike previous models, our model generates reports that do not contain false
references to non-existent prior exams. Our approach provides a promising
direction for bridging the gap between radiologists and generation models in
medical report generation.
- Abstract(参考訳): 現在のトランスモデルでは胸部X線画像から放射線学レポートを生成することに成功した。
それにもかかわらず、主要な問題のひとつは、モデルが事前知識を欠いていることであり、しばしば、合成レポートにおいて存在しない事前試験への誤った参照につながる。
これは主に放射線科医と世代モデルの間の知識のギャップが原因で、放射線科医は患者の事前情報を認識して医療報告を書き、一方、モデルは特定の時間にx線画像を受信するのみである。
この問題に対処するため,IU X線とMIMIC-CXRデータセットの放射線学レポートからラベルを用いた先行情報を抽出する手法を提案する。
この比較は最先端のトランスフォーマーベースモデルに組み込まれており、よりリアルで包括的なレポートを生成することができる。
提案手法はIU X線とMIMIC-CXRのデータセットで検証し,従来の最先端モデルよりも,自動評価と人的評価の両方で優れていることを確認した。
さらに,従来のモデルと異なり,既存の事前試験に虚偽の参照を含まない報告を生成する。
本手法は,医療報告生成における放射線技師と世代モデルとのギャップを埋める上で有望な方向を提供する。
関連論文リスト
- RaTEScore: A Metric for Radiology Report Generation [59.37561810438641]
本稿では,Radiological Report (Text) Evaluation (RaTEScore) として,新しい実体認識尺度を提案する。
RaTEScoreは、診断結果や解剖学的詳細などの重要な医療機関を強調し、複雑な医学的同義語に対して堅牢であり、否定表現に敏感である。
我々の評価は、RaTEScoreが既存の指標よりも人間の嗜好とより密接に一致していることを示し、確立された公開ベンチマークと、新たに提案したRaTE-Evalベンチマークの両方で検証した。
論文 参考訳(メタデータ) (2024-06-24T17:49:28Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Longitudinal Data and a Semantic Similarity Reward for Chest X-Ray Report Generation [7.586632627817609]
放射線学者は、解釈と報告を必要とする胸部X線(CXR)の量の増加のために、高いバーンアウト率に直面している。
提案するCXRレポートジェネレータは,ワークフローの要素を統合し,強化学習のための新たな報酬を導入する。
本研究の結果から, 提案モデルでは, 最新技術モデルよりも, 放射線学者の報告に適合した報告が生成されることがわかった。
論文 参考訳(メタデータ) (2023-07-19T05:41:14Z) - Replace and Report: NLP Assisted Radiology Report Generation [31.309987297324845]
無線画像から放射線学レポートを生成するためのテンプレートベースの手法を提案する。
胸部X線検査では, 異常所見の少ない文章を作成し, 正常な報告テンプレートに置き換えることにより, 胸部X線所見を初めて生成する試みである。
論文 参考訳(メタデータ) (2023-06-19T10:04:42Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Improving Radiology Report Generation Systems by Removing Hallucinated
References to Non-existent Priors [1.1110995501996481]
本稿では,放射線学報告における過去の文献参照を除去する2つの方法を提案する。
GPT-3をベースとした少数ショットによる医療報告の書き直し手法と,BioBERTをベースとしたトークン分類手法により,先行参照語を直接削除する手法である。
CXR-ReDonEと呼ばれる再学習モデルでは,臨床測定値に対する従来のレポート生成手法を上回り,平均BERTSスコア0.2351(絶対改善率2.57%)を達成した。
論文 参考訳(メタデータ) (2022-09-27T00:44:41Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z) - Learning Visual-Semantic Embeddings for Reporting Abnormal Findings on
Chest X-rays [6.686095511538683]
本研究は放射線画像の異常所見の報告に焦点を当てる。
本稿では, レポートから異常な発見を識別し, 教師なしクラスタリングと最小限のルールで分類する手法を提案する。
本手法は, 異常所見を回収し, 臨床正当性およびテキスト生成量の両方で既存の世代モデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-06T04:18:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。