論文の概要: MRGAgents: A Multi-Agent Framework for Improved Medical Report Generation with Med-LVLMs
- arxiv url: http://arxiv.org/abs/2505.18530v1
- Date: Sat, 24 May 2025 05:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.481169
- Title: MRGAgents: A Multi-Agent Framework for Improved Medical Report Generation with Med-LVLMs
- Title(参考訳): MRGAgents:Med-LVLMを用いた医療レポート生成のためのマルチエージェントフレームワーク
- Authors: Pengyu Wang, Shuchang Ye, Usman Naseem, Jinman Kim,
- Abstract要約: Med-LVLM(Med-LVLM)は医療報告生成に広く採用されている。
MRGAgentsは、異なる疾患のカテゴリに特化して機能する新しいマルチエージェントフレームワークである。
実験の結果,MRGAgentsは最新技術より優れ,報告の包括性と診断の有用性が向上した。
- 参考スコア(独自算出の注目度): 13.821075482061952
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical Large Vision-Language Models (Med-LVLMs) have been widely adopted for medical report generation. Despite Med-LVLMs producing state-of-the-art performance, they exhibit a bias toward predicting all findings as normal, leading to reports that overlook critical abnormalities. Furthermore, these models often fail to provide comprehensive descriptions of radiologically relevant regions necessary for accurate diagnosis. To address these challenges, we proposeMedical Report Generation Agents (MRGAgents), a novel multi-agent framework that fine-tunes specialized agents for different disease categories. By curating subsets of the IU X-ray and MIMIC-CXR datasets to train disease-specific agents, MRGAgents generates reports that more effectively balance normal and abnormal findings while ensuring a comprehensive description of clinically relevant regions. Our experiments demonstrate that MRGAgents outperformed the state-of-the-art, improving both report comprehensiveness and diagnostic utility.
- Abstract(参考訳): Med-LVLM(Med-LVLM)は医療報告生成に広く採用されている。
Med-LVLMは最先端のパフォーマンスを生み出すが、すべての発見を正常に予測するバイアスを示しており、重大な異常を見落としているという報告につながっている。
さらに、これらのモデルは、正確な診断に必要な、放射線学的に関係のある領域の包括的記述の提供に失敗することが多い。
これらの課題に対処するために、我々は、異なる疾患カテゴリの特殊エージェントを微調整する新しいマルチエージェントフレームワークであるMedical Report Generation Agents (MRGAgents)を提案する。
MRGAgentsはIU X線とMIMIC-CXRデータセットのサブセットをキュレートして疾患特異的なエージェントを訓練することにより、正常な所見と異常な所見をより効果的にバランスさせ、臨床関連領域の包括的記述を確実にするレポートを生成する。
実験の結果,MRGAgentsは最新技術より優れ,報告の包括性と診断の有用性が向上した。
関連論文リスト
- MAM: Modular Multi-Agent Framework for Multi-Modal Medical Diagnosis via Role-Specialized Collaboration [57.98393950821579]
マルチモーダル医療診断のためのモジュール型マルチエージェントフレームワーク(MAM)について紹介する。
我々の経験的発見に触発されて、MAMは医療診断プロセスを、一般実践者、スペシャリストチーム、放射線科医、医療助手、ディレクターの専門的な役割に分解する。
このモジュール的で協調的なフレームワークは、効率的な知識更新を可能にし、既存の医療用LLMと知識ベースを活用する。
論文 参考訳(メタデータ) (2025-06-24T17:52:43Z) - A Multimodal Multi-Agent Framework for Radiology Report Generation [2.1477122604204433]
放射線診断レポート生成(RRG)は、医療画像から診断レポートを自動生成することを目的としている。
本稿では,段階的臨床推論ワークフローに適合するRRG用マルチモーダルマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-14T20:28:04Z) - Any-to-Any Vision-Language Model for Multimodal X-ray Imaging and Radiological Report Generation [26.589728923739596]
マルチモーダル医療データ生成に特化して設計されたフレームワークを提案する。
多視点胸部X線の発生と臨床報告により、汎用視覚言語モデルと医療の専門的要件とのギャップを埋める。
我々のフレームワークは、下流疾患分類タスクの実際のデータと比較して、同等またはそれ以上の性能を実現している。
論文 参考訳(メタデータ) (2025-05-02T08:07:24Z) - MedRAG: Enhancing Retrieval-augmented Generation with Knowledge Graph-Elicited Reasoning for Healthcare Copilot [47.77948063906033]
Retrieval-augmented Generation (RAG)は、プライバシーに敏感な電子健康記録を検索するのに適した手法である。
本稿では,医療領域に対する知識グラフ(KG)により強化されたRAGモデルであるMedRAGを提案する。
MedRAGはより具体的な診断の洞察を提供し、誤診率の低減に最先端のモデルを上回っている。
論文 参考訳(メタデータ) (2025-02-06T12:27:35Z) - RareAgents: Advancing Rare Disease Care through LLM-Empowered Multi-disciplinary Team [13.330661181655493]
希少な病気が世界中で約3億人に影響を与えている。
近年,大規模言語モデル (LLM) を利用したエージェントが,様々な領域にまたがる顕著な応用を実証している。
RareAgentsは、Llama-3.1-8B/70Bをベースモデルとして、MDT(Advanced Multidisciplinary Team)のコーディネーション、メモリメカニズム、医療ツールの利用を統合する。
論文 参考訳(メタデータ) (2024-12-17T02:22:24Z) - MMed-RAG: Versatile Multimodal RAG System for Medical Vision Language Models [49.765466293296186]
近年,Med-LVLM (Med-LVLMs) の進歩により,対話型診断ツールの新たな可能性が高まっている。
Med-LVLMは、しばしば事実の幻覚に悩まされ、誤った診断につながることがある。
我々は,Med-LVLMの現実性を高めるために,多目的マルチモーダルRAGシステムMMed-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-16T23:03:27Z) - Assessing and Enhancing Large Language Models in Rare Disease Question-answering [64.32570472692187]
本稿では,レアな疾患の診断におけるLarge Language Models (LLMs) の性能を評価するために,レアな疾患問合せデータセット(ReDis-QA)を導入する。
ReDis-QAデータセットでは1360の高品質な質問応答ペアを収集し,205の稀な疾患をカバーした。
その後、いくつかのオープンソースのLCMをベンチマークし、希少疾患の診断がこれらのモデルにとって重要な課題であることを示した。
実験の結果,ReCOPは,ReDis-QAデータセット上でのLCMの精度を平均8%向上できることがわかった。
論文 参考訳(メタデータ) (2024-08-15T21:09:09Z) - Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - CoMT: Chain-of-Medical-Thought Reduces Hallucination in Medical Report Generation [20.59298361626719]
医療報告生成における幻覚を緩和するためのチェーン・オブ・メディカル・シント・アプローチ(CoMT)を提案する。
CoMTは、診断手順を分解することで、人間の医師の認知過程を模倣しようとしている。
論文 参考訳(メタデータ) (2024-06-17T12:03:32Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Cross-Modal Causal Intervention for Medical Report Generation [109.83549148448469]
医療報告生成(MRG)は、コンピュータ支援診断と治療指導に不可欠である。
視覚的および言語的バイアスによって引き起こされる画像テキストデータ内の素早い相関のため、病変領域を確実に記述した正確なレポートを生成することは困難である。
本稿では,視覚分解モジュール (VDM) と言語分解モジュール (LDM) からなるMRGのための新しい視覚言語因果干渉 (VLCI) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。