論文の概要: MRGAgents: A Multi-Agent Framework for Improved Medical Report Generation with Med-LVLMs
- arxiv url: http://arxiv.org/abs/2505.18530v1
- Date: Sat, 24 May 2025 05:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.481169
- Title: MRGAgents: A Multi-Agent Framework for Improved Medical Report Generation with Med-LVLMs
- Title(参考訳): MRGAgents:Med-LVLMを用いた医療レポート生成のためのマルチエージェントフレームワーク
- Authors: Pengyu Wang, Shuchang Ye, Usman Naseem, Jinman Kim,
- Abstract要約: Med-LVLM(Med-LVLM)は医療報告生成に広く採用されている。
MRGAgentsは、異なる疾患のカテゴリに特化して機能する新しいマルチエージェントフレームワークである。
実験の結果,MRGAgentsは最新技術より優れ,報告の包括性と診断の有用性が向上した。
- 参考スコア(独自算出の注目度): 13.821075482061952
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical Large Vision-Language Models (Med-LVLMs) have been widely adopted for medical report generation. Despite Med-LVLMs producing state-of-the-art performance, they exhibit a bias toward predicting all findings as normal, leading to reports that overlook critical abnormalities. Furthermore, these models often fail to provide comprehensive descriptions of radiologically relevant regions necessary for accurate diagnosis. To address these challenges, we proposeMedical Report Generation Agents (MRGAgents), a novel multi-agent framework that fine-tunes specialized agents for different disease categories. By curating subsets of the IU X-ray and MIMIC-CXR datasets to train disease-specific agents, MRGAgents generates reports that more effectively balance normal and abnormal findings while ensuring a comprehensive description of clinically relevant regions. Our experiments demonstrate that MRGAgents outperformed the state-of-the-art, improving both report comprehensiveness and diagnostic utility.
- Abstract(参考訳): Med-LVLM(Med-LVLM)は医療報告生成に広く採用されている。
Med-LVLMは最先端のパフォーマンスを生み出すが、すべての発見を正常に予測するバイアスを示しており、重大な異常を見落としているという報告につながっている。
さらに、これらのモデルは、正確な診断に必要な、放射線学的に関係のある領域の包括的記述の提供に失敗することが多い。
これらの課題に対処するために、我々は、異なる疾患カテゴリの特殊エージェントを微調整する新しいマルチエージェントフレームワークであるMedical Report Generation Agents (MRGAgents)を提案する。
MRGAgentsはIU X線とMIMIC-CXRデータセットのサブセットをキュレートして疾患特異的なエージェントを訓練することにより、正常な所見と異常な所見をより効果的にバランスさせ、臨床関連領域の包括的記述を確実にするレポートを生成する。
実験の結果,MRGAgentsは最新技術より優れ,報告の包括性と診断の有用性が向上した。
関連論文リスト
- A Multimodal Multi-Agent Framework for Radiology Report Generation [2.1477122604204433]
放射線診断レポート生成(RRG)は、医療画像から診断レポートを自動生成することを目的としている。
本稿では,段階的臨床推論ワークフローに適合するRRG用マルチモーダルマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-14T20:28:04Z) - Any-to-Any Vision-Language Model for Multimodal X-ray Imaging and Radiological Report Generation [26.589728923739596]
マルチモーダル医療データ生成に特化して設計されたフレームワークを提案する。
多視点胸部X線の発生と臨床報告により、汎用視覚言語モデルと医療の専門的要件とのギャップを埋める。
我々のフレームワークは、下流疾患分類タスクの実際のデータと比較して、同等またはそれ以上の性能を実現している。
論文 参考訳(メタデータ) (2025-05-02T08:07:24Z) - RareAgents: Advancing Rare Disease Care through LLM-Empowered Multi-disciplinary Team [13.330661181655493]
希少な病気が世界中で約3億人に影響を与えている。
近年,大規模言語モデル (LLM) を利用したエージェントが,様々な領域にまたがる顕著な応用を実証している。
RareAgentsは、Llama-3.1-8B/70Bをベースモデルとして、MDT(Advanced Multidisciplinary Team)のコーディネーション、メモリメカニズム、医療ツールの利用を統合する。
論文 参考訳(メタデータ) (2024-12-17T02:22:24Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - CoMT: Chain-of-Medical-Thought Reduces Hallucination in Medical Report Generation [20.59298361626719]
医療報告生成における幻覚を緩和するためのチェーン・オブ・メディカル・シント・アプローチ(CoMT)を提案する。
CoMTは、診断手順を分解することで、人間の医師の認知過程を模倣しようとしている。
論文 参考訳(メタデータ) (2024-06-17T12:03:32Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Cross-Modal Causal Intervention for Medical Report Generation [109.83549148448469]
医療報告生成(MRG)は、コンピュータ支援診断と治療指導に不可欠である。
視覚的および言語的バイアスによって引き起こされる画像テキストデータ内の素早い相関のため、病変領域を確実に記述した正確なレポートを生成することは困難である。
本稿では,視覚分解モジュール (VDM) と言語分解モジュール (LDM) からなるMRGのための新しい視覚言語因果干渉 (VLCI) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。