論文の概要: RadAgents: Multimodal Agentic Reasoning for Chest X-ray Interpretation with Radiologist-like Workflows
- arxiv url: http://arxiv.org/abs/2509.20490v1
- Date: Wed, 24 Sep 2025 19:08:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.550314
- Title: RadAgents: Multimodal Agentic Reasoning for Chest X-ray Interpretation with Radiologist-like Workflows
- Title(参考訳): RadAgents:放射線医のようなワークフローを用いた胸部X線解釈のためのマルチモーダルエージェント推論
- Authors: Kai Zhang, Corey D Barrett, Jangwon Kim, Lichao Sun, Tara Taghavi, Krishnaram Kenthapadi,
- Abstract要約: エージェントシステムは、特殊なエージェント間のコラボレーションを通じて、複雑な臨床的タスクを解決する潜在的な経路を提供する。
胸部X線(CXR)の解釈では、一般的な方法が限られている。
本稿では,CXR解釈のためのフレームワークであるRadAgentsについて述べる。
- 参考スコア(独自算出の注目度): 24.834310777522067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic systems offer a potential path to solve complex clinical tasks through collaboration among specialized agents, augmented by tool use and external knowledge bases. Nevertheless, for chest X-ray (CXR) interpretation, prevailing methods remain limited: (i) reasoning is frequently neither clinically interpretable nor aligned with guidelines, reflecting mere aggregation of tool outputs; (ii) multimodal evidence is insufficiently fused, yielding text-only rationales that are not visually grounded; and (iii) systems rarely detect or resolve cross-tool inconsistencies and provide no principled verification mechanisms. To bridge the above gaps, we present RadAgents, a multi-agent framework for CXR interpretation that couples clinical priors with task-aware multimodal reasoning. In addition, we integrate grounding and multimodal retrieval-augmentation to verify and resolve context conflicts, resulting in outputs that are more reliable, transparent, and consistent with clinical practice.
- Abstract(参考訳): エージェントシステムは、特殊なエージェント間のコラボレーション、ツールの使用による強化、および外部知識ベースを通じて、複雑な臨床タスクを解決する潜在的な経路を提供する。
それでも、胸部X線(CXR)の解釈では、一般的な方法が限られている。
一 理由付けは、しばしば、道具のアウトプットの単なる集約を反映して、臨床的に解釈可能でもなく、かつ、ガイドラインに沿うものでもない。
(二)マルチモーダル証拠が不十分に融合し、視覚的に根拠のないテキストのみの理性が得られること。
三 システムは、クロスツールの不整合を検出したり、解決したりすることは滅多になく、原則化された検証機構を提供しない。
以上のギャップを埋めるために,CXR解釈のためのマルチエージェントフレームワークであるRadAgentsを提案する。
さらに,コンテクストコンフリクトの検証と解決のために,グラウンド検索とマルチモーダル検索を統合した結果,信頼性が高く,透明性が高く,臨床実践と整合したアウトプットが得られた。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - A Knowledge-driven Adaptive Collaboration of LLMs for Enhancing Medical Decision-making [49.048767633316764]
KAMACは知識駆動のAdaptive Multi-Agent Collaborationフレームワークである。
エージェントは進化する診断コンテキストに基づいて、専門家チームを動的に形成および拡張することができる。
2つの実世界の医療ベンチマーク実験により、KAMACはシングルエージェント法と高度なマルチエージェント法の両方を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-18T14:33:36Z) - End-to-End Agentic RAG System Training for Traceable Diagnostic Reasoning [52.12425911708585]
Deep-DxSearchは、強化学習(RL)でエンドツーエンドに訓練されたエージェントRAGシステムである。
Deep-DxSearchでは,患者記録と信頼性のある医療知識情報を含む大規模医療検索コーパスを構築した。
実験により、エンドツーエンドのRLトレーニングフレームワークは、プロンプトエンジニアリングやトレーニングフリーなRAGアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-21T17:42:47Z) - Tree-of-Reasoning: Towards Complex Medical Diagnosis via Multi-Agent Reasoning with Evidence Tree [14.013981070330153]
複雑なシナリオを扱うために設計された新しいマルチエージェントフレームワークであるTree-of-Reasoning (ToR)を提案する。
具体的には、大規模言語モデル(LLM)の推論経路とそれに対応する臨床証拠を明確に記録できるツリー構造を導入する。
同時に,マルチエージェント意思決定の整合性を確保するためのクロスバリデーション機構を提案する。
論文 参考訳(メタデータ) (2025-08-05T03:31:28Z) - A Multi-Agent System for Complex Reasoning in Radiology Visual Question Answering [3.3809462259925938]
放射線画像質問応答(RVQA)は胸部X線画像に関する質問に対して正確な回答を提供する。
近年,マルチモーダル大言語モデル (MLLM) と検索拡張生成 (RAG) に基づく手法がRVQAの進歩に寄与している。
RVQAにおける複雑な推論を支援するために,マルチエージェントシステム(MAS)を導入する。
論文 参考訳(メタデータ) (2025-08-04T19:09:52Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making [80.94208848596215]
提案する概念は「Catfish Agent」である。これは、構造的不満を注入し、無声な合意に反するように設計された役割特化LDMである。
組織心理学において「ナマズ・エフェクト」にインスパイアされたカマズ・エージェントは、より深い推論を促進するために、新たなコンセンサスに挑戦するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T17:59:50Z) - A Multimodal Multi-Agent Framework for Radiology Report Generation [2.1477122604204433]
放射線診断レポート生成(RRG)は、医療画像から診断レポートを自動生成することを目的としている。
本稿では,段階的臨床推論ワークフローに適合するRRG用マルチモーダルマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-14T20:28:04Z) - SurgRAW: Multi-Agent Workflow with Chain-of-Thought Reasoning for Surgical Intelligence [16.584722724845182]
手術インテリジェンスにおける視覚-言語モデルの統合は、幻覚、ドメイン知識のギャップ、タスク相互依存性の限定的な理解によって妨げられている。
本稿では,CoT駆動型マルチエージェントフレームワークであるSurgRAWについて紹介する。
論文 参考訳(メタデータ) (2025-03-13T11:23:13Z) - Instrumental Variable Learning for Chest X-ray Classification [52.68170685918908]
本稿では,素因果関係を排除し,正確な因果表現を得るための解釈可能な機器変数(IV)学習フレームワークを提案する。
提案手法の性能はMIMIC-CXR,NIH ChestX-ray 14,CheXpertデータセットを用いて実証した。
論文 参考訳(メタデータ) (2023-05-20T03:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。