論文の概要: SOLVE-Med: Specialized Orchestration for Leading Vertical Experts across Medical Specialties
- arxiv url: http://arxiv.org/abs/2511.03542v1
- Date: Wed, 05 Nov 2025 15:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.459955
- Title: SOLVE-Med: Specialized Orchestration for Leading Vertical Experts across Medical Specialties
- Title(参考訳): SOLVE-Med:医療専門分野における垂直的専門家育成のための特別編成
- Authors: Roberta Di Marino, Giovanni Dioguardi, Antonio Romano, Giuseppe Riccio, Mariano Barone, Marco Postiglione, Flora Amato, Vincenzo Moscato,
- Abstract要約: SOLVE-Medは、複雑な医療クエリのためのドメイン特化小言語モデルを組み合わせたマルチエージェントアーキテクチャである。
このシステムは、動的スペシャリストの選択にルータエージェント、特定の医療領域で微調整された10の特別モデル(1Bパラメータ)、反応を合成するオーケストラエージェントを使用する。
- 参考スコア(独自算出の注目度): 10.169246222915158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical question answering systems face deployment challenges including hallucinations, bias, computational demands, privacy concerns, and the need for specialized expertise across diverse domains. Here, we present SOLVE-Med, a multi-agent architecture combining domain-specialized small language models for complex medical queries. The system employs a Router Agent for dynamic specialist selection, ten specialized models (1B parameters each) fine-tuned on specific medical domains, and an Orchestrator Agent that synthesizes responses. Evaluated on Italian medical forum data across ten specialties, SOLVE-Med achieves superior performance with ROUGE-1 of 0.301 and BERTScore F1 of 0.697, outperforming standalone models up to 14B parameters while enabling local deployment. Our code is publicly available on GitHub: https://github.com/PRAISELab-PicusLab/SOLVE-Med.
- Abstract(参考訳): 医療質問応答システムは、幻覚、偏見、計算要求、プライバシーの懸念、さまざまな領域にまたがる専門知識の必要性など、デプロイメント上の課題に直面している。
本稿では,ドメイン特化小言語モデルを組み合わせたマルチエージェントアーキテクチャであるSOLVE-Medについて述べる。
このシステムは、動的スペシャリストの選択にルータエージェント、特定の医療領域で微調整された10の特別モデル(1Bパラメータ)、反応を合成するオーケストラエージェントを使用する。
SOLVE-Medは10の専門分野にわたるイタリアの医療フォーラムデータに基づいて、0.301のROUGE-1と0.697のBERTScore F1で優れた性能を達成し、現地での配備を可能にしながら14Bパラメータのスタンドアロンモデルを上回った。
私たちのコードはGitHubで公開されている。 https://github.com/PRAISELab-PicusLab/SOLVE-Med。
関連論文リスト
- MedQARo: A Large-Scale Benchmark for Medical Question Answering in Romanian [50.767415194856135]
ルーマニア初の大規模医療QAベンチマークであるMedQARoを紹介する。
がん患者に関連する102,646のQAペアからなる高品質で大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2025-08-22T13:48:37Z) - MedResearcher-R1: Expert-Level Medical Deep Researcher via A Knowledge-Informed Trajectory Synthesis Framework [24.399778346443757]
汎用的なディープリサーチエージェントは、主要なプロプライエタリなシステムによって証明されているように、医療領域の課題に苦しむ。
2つのコアイノベーションを通じてこれらの課題に対処する医療深層研究エージェントを提示する。
本手法は12の専門分野にまたがる2100以上の多様な軌道を生成し,それぞれが平均4.2のツールインタラクションを発生させる。
論文 参考訳(メタデータ) (2025-08-20T17:51:20Z) - MMedAgent-RL: Optimizing Multi-Agent Collaboration for Multimodal Medical Reasoning [63.63542462400175]
医療エージェント間の動的に最適化された協調を可能にする強化学習に基づくマルチエージェントフレームワークMMedAgent-RLを提案する。
具体的には、Qwen2.5-VLに基づく2つのGPエージェントをRLを介して訓練する: トリアージ医師は患者を適切な専門分野に割り当てることを学ぶ一方、主治医はマルチスペシャリストの判断を統合する。
5つのVQAベンチマークの実験では、MMedAgent-RLはオープンソースおよびプロプライエタリなMed-LVLMよりも優れており、人間のような推論パターンも示している。
論文 参考訳(メタデータ) (2025-05-31T13:22:55Z) - Capabilities of Gemini Models in Medicine [100.60391771032887]
医療専門のマルチモーダルモデルであるMed-Geminiを紹介する。
メドジェニーニを14の医療ベンチマークで評価し,その内10に新たな最先端(SoTA)性能を確立した。
我々の結果は、Med-Geminiの可能性を示唆する証拠を提供するが、より厳密な評価は実世界の展開に先立って重要である。
論文 参考訳(メタデータ) (2024-04-29T04:11:28Z) - Med-MoE: Mixture of Domain-Specific Experts for Lightweight Medical Vision-Language Models [17.643421997037514]
差別的, 生成的両マルチモーダル医療課題に対処する新しい枠組みを提案する。
Med-MoEの学習は、マルチモーダル医療アライメント、命令チューニングとルーティング、ドメイン固有のMoEチューニングの3つのステップで構成されている。
我々のモデルは最先端のベースラインに匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2024-04-16T02:35:17Z) - Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case
Study in Medicine [89.46836590149883]
本研究は, GPT-4の医学的課題評価における能力について, 専門訓練の欠如による先行研究に基づくものである。
イノベーションを促進することで、より深い専門能力が解放され、GPT-4が医学ベンチマークの先行結果に容易に勝っていることが分かる。
Medpromptを使用すると、GPT-4はMultiMedQAスイートのベンチマークデータセットの9つすべてに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-11-28T03:16:12Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。