論文の概要: MDTeamGPT: A Self-Evolving LLM-based Multi-Agent Framework for Multi-Disciplinary Team Medical Consultation
- arxiv url: http://arxiv.org/abs/2503.13856v1
- Date: Tue, 18 Mar 2025 03:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 16:29:12.271122
- Title: MDTeamGPT: A Self-Evolving LLM-based Multi-Agent Framework for Multi-Disciplinary Team Medical Consultation
- Title(参考訳): MDTeamGPT:多分野チーム医療相談のための自己進化型LCMベースのマルチエージェントフレームワーク
- Authors: Kai Chen, Xinfeng Li, Tianpei Yang, Hewei Wang, Wei Dong, Yang Gao,
- Abstract要約: MDTコンサルテーションにおけるマルチロールコラボレーションは、しばしば過度に長い対話履歴をもたらす。
本稿では,これらの問題に対処する大規模言語モデル(LLM)に基づくマルチエージェントMDT医療相談フレームワークを提案する。
本フレームワークでは,コンセンサス・アグリゲーションと,マルチラウンド・コンサルテーションのための残余の議論構造を用いる。
また、CorrectKB (CorrectKB) とChain-of-Thought Knowledge Base (ChainKB) も採用している。
- 参考スコア(独自算出の注目度): 20.622990699649694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have made significant progress in various fields. However, challenges remain in Multi-Disciplinary Team (MDT) medical consultations. Current research enhances reasoning through role assignment, task decomposition, and accumulation of medical experience. Multi-role collaboration in MDT consultations often results in excessively long dialogue histories. This increases the model's cognitive burden and degrades both efficiency and accuracy. Some methods only store treatment histories. They do not extract effective experience or reflect on errors. This limits knowledge generalization and system evolution. We propose a multi-agent MDT medical consultation framework based on LLMs to address these issues. Our framework uses consensus aggregation and a residual discussion structure for multi-round consultations. It also employs a Correct Answer Knowledge Base (CorrectKB) and a Chain-of-Thought Knowledge Base (ChainKB) to accumulate consultation experience. These mechanisms enable the framework to evolve and continually improve diagnosis rationality and accuracy. Experimental results on the MedQA and PubMedQA datasets demonstrate that our framework achieves accuracies of 90.1% and 83.9%, respectively, and that the constructed knowledge bases generalize effectively across test sets from both datasets.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々な分野で大きな進歩を遂げている。
しかし、MDT(Multi-Disciplinary Team)の医療相談には課題が残っている。
現在の研究は、役割割り当て、タスクの分解、医療経験の蓄積を通じて推論を強化する。
MDTコンサルテーションにおけるマルチロールコラボレーションは、しばしば過度に長い対話履歴をもたらす。
これによりモデルの認知的負担が増大し、効率性と精度の両方が低下する。
治療履歴のみを保存する方法もある。
効果的な経験を抽出したり、エラーを反映したりしない。
これは知識の一般化とシステムの進化を制限する。
LLMをベースとしたマルチエージェントMDT医療相談フレームワークを提案し,これらの課題に対処する。
本フレームワークでは,コンセンサス・アグリゲーションと,マルチラウンド・コンサルテーションのための残余の議論構造を用いる。
また、CorrectKB (CorrectKB) とChain-of-Thought Knowledge Base (ChainKB) も採用している。
これらのメカニズムにより、フレームワークは進化し、診断の合理性と精度を継続的に改善することができる。
MedQAデータセットとPubMedQAデータセットの実験的結果は、我々のフレームワークがそれぞれ90.1%と83.9%の精度を達成し、構築された知識ベースが両方のデータセットからテストセット間で効果的に一般化されていることを示している。
関連論文リスト
- MRD-RAG: Enhancing Medical Diagnosis with Multi-Round Retrieval-Augmented Generation [10.483453944197407]
医師の診断過程を模倣したMRD-RAG(Multi-Round Diagnostic RAG)フレームワークを提案する。
本発明のRAGフレームワークは、潜在的な疾患の診断情報を解析し、医師等のマルチラウンド診断を正確に行うことができる。
論文 参考訳(メタデータ) (2025-04-10T13:17:51Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - LLM-MedQA: Enhancing Medical Question Answering through Case Studies in Large Language Models [18.6994780408699]
大規模言語モデル (LLM) は、医学的質問応答において重大な課題に直面している。
マルチエージェント医療質問応答システムに類似の事例生成を取り入れた新しい手法を提案する。
本手法は, モデル固有の医療知識と推論能力を活用し, 追加のトレーニングデータの必要性を解消する。
論文 参考訳(メタデータ) (2024-12-31T19:55:45Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - ColaCare: Enhancing Electronic Health Record Modeling through Large Language Model-Driven Multi-Agent Collaboration [14.180987429395584]
ColaCareは、大規模言語モデル(LLM)によって駆動されるマルチエージェントコラボレーションを通じて電子健康記録(EHR)モデリングを強化するフレームワークである。
我々のアプローチは、構造化されたEHRデータとテキストベースの推論の間のギャップを埋めるために、ドメイン固有のエキスパートモデルとLLMをシームレスに統合する。
論文 参考訳(メタデータ) (2024-10-03T14:55:22Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - MultifacetEval: Multifaceted Evaluation to Probe LLMs in Mastering Medical Knowledge [4.8004472307210255]
大規模言語モデル (LLMs) はドメイン間で優れており、医療評価ベンチマークで顕著なパフォーマンスを提供している。
しかし、実際の医療シナリオにおける報告されたパフォーマンスと実践的効果の間には、依然として大きなギャップがある。
医療知識のエンコーディングと習得におけるLLMの程度と範囲を検討するための,新しい評価フレームワークであるMultifacetEvalを開発した。
論文 参考訳(メタデータ) (2024-06-05T04:15:07Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - RJUA-MedDQA: A Multimodal Benchmark for Medical Document Question
Answering and Clinical Reasoning [14.366349078707263]
RJUA-MedDQAは医学専門分野における総合的なベンチマークである。
本稿では医学専門分野の総合的なベンチマークであるRJUA-MedDQAを紹介する。
論文 参考訳(メタデータ) (2024-02-19T06:57:02Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - MedAgents: Large Language Models as Collaborators for Zero-shot Medical Reasoning [35.804520192679874]
大規模言語モデル(LLM)は医療や医療において重大な障壁に直面している。
MedAgentsは医療分野のための新しい多分野連携フレームワークである。
私たちの研究は、現実世界のシナリオに適用可能なゼロショット設定に焦点を当てています。
論文 参考訳(メタデータ) (2023-11-16T11:47:58Z) - When MOE Meets LLMs: Parameter Efficient Fine-tuning for Multi-task Medical Applications [57.342772288710044]
我々はMOELoRAと呼ばれるマルチタスク医療応用のためのパラメータ効率の良い微調整フレームワークを提案する。
MOEとLoRAを統一するために、トレーニング可能なパラメータとして複数の専門家を考案し、トレーニング可能なパラメータの小さなサイズを保持するために、各専門家は2つの低ランク行列から構成される。
マルチタスク医療データセットを用いて実験を行い、MOELoRAが既存のパラメータを効率よく微調整する手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-21T17:18:09Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。