論文の概要: VLM-KG: Multimodal Radiology Knowledge Graph Generation
- arxiv url: http://arxiv.org/abs/2505.17042v1
- Date: Tue, 13 May 2025 06:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-01 23:16:01.389271
- Title: VLM-KG: Multimodal Radiology Knowledge Graph Generation
- Title(参考訳): VLM-KG:マルチモーダルラジオロジー知識グラフ生成
- Authors: Abdullah Abdullah, Seong Tae Kim,
- Abstract要約: 放射線学における知識グラフ生成のための新しい枠組みを提案する。
提案手法は,従来の手法より優れており,ラジオロジー知識グラフ生成のための最初のマルチモーダルソリューションを導入している。
- 参考スコア(独自算出の注目度): 3.6669792968901573
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vision-Language Models (VLMs) have demonstrated remarkable success in natural language generation, excelling at instruction following and structured output generation. Knowledge graphs play a crucial role in radiology, serving as valuable sources of factual information and enhancing various downstream tasks. However, generating radiology-specific knowledge graphs presents significant challenges due to the specialized language of radiology reports and the limited availability of domain-specific data. Existing solutions are predominantly unimodal, meaning they generate knowledge graphs only from radiology reports while excluding radiographic images. Additionally, they struggle with long-form radiology data due to limited context length. To address these limitations, we propose a novel multimodal VLM-based framework for knowledge graph generation in radiology. Our approach outperforms previous methods and introduces the first multimodal solution for radiology knowledge graph generation.
- Abstract(参考訳): VLM(Vision-Language Models)は、自然言語生成において顕著な成功を収め、命令の追従や構造化された出力生成に優れています。
知識グラフは放射線学において重要な役割を担い、事実情報の貴重な情報源として機能し、下流の様々なタスクを強化する。
しかし, 放射線学固有の知識グラフの生成は, 専門言語としての放射線学報告と, ドメイン固有データの限定的利用により, 重大な課題を生んでいる。
既存のソリューションは、主に非定型であり、つまり、放射線画像を除いて、放射線学の報告からのみ知識グラフを生成する。
さらに、コンテクストの長さが限られているため、長い形態の放射線学データに苦しむ。
これらの制約に対処するために,放射線学における知識グラフ生成のための新しいマルチモーダルVLMベースのフレームワークを提案する。
提案手法は従来の手法より優れており,ラジオロジー知識グラフ生成のための最初のマルチモーダルソリューションを導入している。
関連論文リスト
- Uncovering Knowledge Gaps in Radiology Report Generation Models through Knowledge Graphs [18.025481751074214]
我々はReXKGというシステムを導入し,処理されたレポートから構造化された情報を抽出し,放射線学知識グラフを構築する。
我々はAIと人手による放射線学レポートの詳細な比較分析を行い、専門家モデルとジェネラリストモデルの両方のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-08-26T16:28:56Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Radiology-GPT: A Large Language Model for Radiology [74.07944784968372]
本稿では,ラジオロジーのための大規模言語モデルであるRadiology-GPTを紹介する。
StableLM、Dolly、LLaMAといった一般的な言語モデルと比較して、優れたパフォーマンスを示している。
放射線診断、研究、通信において大きな汎用性を示す。
論文 参考訳(メタデータ) (2023-06-14T17:57:24Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language Models [72.8965643836841]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Knowledge Matters: Radiology Report Generation with General and Specific
Knowledge [24.995748604459013]
本稿では,知識に富んだ放射線学レポート生成手法を提案する。
放射線画像の視覚的特徴を一般知識と具体的知識と組み合わせることで,提案モデルは生成したレポートの品質を向上させることができる。
論文 参考訳(メタデータ) (2021-12-30T10:36:04Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。