論文の概要: RADAR: Enhancing Radiology Report Generation with Supplementary Knowledge Injection
- arxiv url: http://arxiv.org/abs/2505.14318v1
- Date: Tue, 20 May 2025 13:05:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.241295
- Title: RADAR: Enhancing Radiology Report Generation with Supplementary Knowledge Injection
- Title(参考訳): RADAR:補助的知識注入による放射線学レポート作成の促進
- Authors: Wenjun Hou, Yi Cheng, Kaishuai Xu, Heng Li, Yan Hu, Wenjie Li, Jiang Liu,
- Abstract要約: RADARは、補助的な知識注入による放射線学レポート生成を強化するためのフレームワークである。
まず、専門家のイメージベースの分類出力と整合したモデルから取得した知識を抽出する。
その後、関連する補足的知識を取得して、この情報をさらに強化する。
- 参考スコア(独自算出の注目度): 15.640187325451237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable capabilities in various domains, including radiology report generation. Previous approaches have attempted to utilize multimodal LLMs for this task, enhancing their performance through the integration of domain-specific knowledge retrieval. However, these approaches often overlook the knowledge already embedded within the LLMs, leading to redundant information integration and inefficient utilization of learned representations. To address this limitation, we propose RADAR, a framework for enhancing radiology report generation with supplementary knowledge injection. RADAR improves report generation by systematically leveraging both the internal knowledge of an LLM and externally retrieved information. Specifically, it first extracts the model's acquired knowledge that aligns with expert image-based classification outputs. It then retrieves relevant supplementary knowledge to further enrich this information. Finally, by aggregating both sources, RADAR generates more accurate and informative radiology reports. Extensive experiments on MIMIC-CXR, CheXpert-Plus, and IU X-ray demonstrate that our model outperforms state-of-the-art LLMs in both language quality and clinical accuracy
- Abstract(参考訳): 大型言語モデル (LLM) は、放射線学レポート生成を含む様々な領域において顕著な機能を示した。
従来のアプローチではマルチモーダル LLM をこのタスクに利用しようと試みており、ドメイン固有知識検索の統合による性能の向上が図られている。
しかしながら、これらのアプローチは LLM に埋め込まれた知識をしばしば見落とし、冗長な情報統合と学習された表現の非効率な利用につながる。
この制限に対処するために,補足的知識注入による放射線学レポート生成を向上するためのフレームワークであるRADARを提案する。
RADARは、LCMの内部知識と外部から取得した情報の両方を体系的に活用することで、レポート生成を改善する。
具体的には、エキスパート画像に基づく分類出力と整合したモデルから取得した知識を抽出する。
その後、関連する補足的知識を取得して、この情報をさらに強化する。
最後に、両方の情報源を集約することで、RADARはより正確で情報的な放射線学レポートを生成する。
MIMIC-CXR、CheXpert-Plus、IU X-rayの広範囲にわたる実験により、我々のモデルは言語品質と臨床精度の両方において最先端のLCMよりも優れていることが示された。
関連論文リスト
- Leveraging LLMs for Multimodal Retrieval-Augmented Radiology Report Generation via Key Phrase Extraction [0.0]
本稿では,多モーダル検索と大規模言語モデルを活用した検索拡張生成手法を提案する。
本手法は, LLMを用いて放射線学報告から重要なフレーズを抽出し, 本質的な診断情報に効果的に焦点をあてる。
我々は、MIMIC-CXRデータセットに対するアプローチを評価し、CheXbertメトリクスと競合するRadGraph F1メトリクスの最先端結果を得た。
論文 参考訳(メタデータ) (2025-04-10T03:14:01Z) - KARGEN: Knowledge-enhanced Automated Radiology Report Generation Using Large Language Models [39.831976458410864]
本稿では,大規模言語モデルに基づく知識向上型自動放射線学レポートジェネレーションフレームワークであるKARGENについて述べる。
このフレームワークは、LLM内の胸部疾患関連知識を解き放つための知識グラフを統合し、生成された報告の臨床的有用性を高める。
提案手法はMIMIC-CXRとIU-Xrayのデータセットに対して有望な結果を示す。
論文 参考訳(メタデータ) (2024-09-09T06:57:22Z) - MGH Radiology Llama: A Llama 3 70B Model for Radiology [50.42811030970618]
本稿では,高度な放射線学に焦点を当てた大規模言語モデルMGH Radiology Llamaを提案する。
Llama 3 70Bモデルを使用して開発され、Radiology-GPTやRadiology-Llama2といった従来のドメイン固有モデルをベースにしている。
従来の指標とGPT-4に基づく評価の両方を取り入れた評価では,汎用LLMよりも高い性能を示す。
論文 参考訳(メタデータ) (2024-08-13T01:30:03Z) - Large Model driven Radiology Report Generation with Clinical Quality
Reinforcement Learning [16.849933628738277]
放射線学報告生成 (RRG) は, 放射線技師の作業量削減の可能性から注目されている。
本稿では,新しいRRG法である textbfLM-RRG について紹介する。
MIMIC-CXRおよびIU-Xrayデータセットを用いた実験により,本手法が技術状況よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-11T13:47:11Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - LLM-driven Multimodal Target Volume Contouring in Radiation Oncology [46.23891509553877]
大規模言語モデル(LLM)は、テキスト情報と画像の統合を容易にする。
LLM駆動型マルチモーダルAI,すなわちLLMSegを提案する。
提案モデルでは,従来のユニモーダルAIモデルと比較して,性能が著しく向上していることが実証された。
論文 参考訳(メタデータ) (2023-11-03T13:38:42Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Radiology Report Generation with a Learned Knowledge Base and
Multi-modal Alignment [27.111857943935725]
胸部X線からのレポート生成のための自動マルチモーダルアプローチを提案する。
本手法は,学習知識ベースとマルチモーダルアライメントの2つの異なるモジュールを特徴とする。
両モジュールの助けを借りて、我々のアプローチは明らかに最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-12-30T10:43:56Z) - Knowledge Matters: Radiology Report Generation with General and Specific
Knowledge [24.995748604459013]
本稿では,知識に富んだ放射線学レポート生成手法を提案する。
放射線画像の視覚的特徴を一般知識と具体的知識と組み合わせることで,提案モデルは生成したレポートの品質を向上させることができる。
論文 参考訳(メタデータ) (2021-12-30T10:36:04Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。