論文の概要: Evidence-based diagnostic reasoning with multi-agent copilot for human pathology
- arxiv url: http://arxiv.org/abs/2506.20964v1
- Date: Thu, 26 Jun 2025 03:02:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.952051
- Title: Evidence-based diagnostic reasoning with multi-agent copilot for human pathology
- Title(参考訳): Evidence-based diagnosis reasoning with multi-agent copilot for human pathology (特集:日本臨床医学会)
- Authors: Chengkuan Chen, Luca L. Weishaupt, Drew F. K. Williamson, Richard J. Chen, Tong Ding, Bowen Chen, Anurag Vaidya, Long Phi Le, Guillaume Jaume, Ming Y. Lu, Faisal Mahmood,
- Abstract要約: 現在の計算病理学におけるMLLM(Multimodal Large Language Model)は限界に直面している。
そこで我々は,ヒトの病理に特化して設計された新しいMLLMであるPathChat+を紹介した。
また、PathChat+を利用した推論可能なマルチエージェントAIシステムであるSlideSeekを紹介し、ギガピクセル全体の画像を自律的に評価する。
- 参考スコア(独自算出の注目度): 7.976907866539546
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pathology is experiencing rapid digital transformation driven by whole-slide imaging and artificial intelligence (AI). While deep learning-based computational pathology has achieved notable success, traditional models primarily focus on image analysis without integrating natural language instruction or rich, text-based context. Current multimodal large language models (MLLMs) in computational pathology face limitations, including insufficient training data, inadequate support and evaluation for multi-image understanding, and a lack of autonomous, diagnostic reasoning capabilities. To address these limitations, we introduce PathChat+, a new MLLM specifically designed for human pathology, trained on over 1 million diverse, pathology-specific instruction samples and nearly 5.5 million question answer turns. Extensive evaluations across diverse pathology benchmarks demonstrated that PathChat+ substantially outperforms the prior PathChat copilot, as well as both state-of-the-art (SOTA) general-purpose and other pathology-specific models. Furthermore, we present SlideSeek, a reasoning-enabled multi-agent AI system leveraging PathChat+ to autonomously evaluate gigapixel whole-slide images (WSIs) through iterative, hierarchical diagnostic reasoning, reaching high accuracy on DDxBench, a challenging open-ended differential diagnosis benchmark, while also capable of generating visually grounded, humanly-interpretable summary reports.
- Abstract(参考訳): 病理学は、全スライディングイメージングと人工知能(AI)によって駆動される急激なデジタルトランスフォーメーションを経験している。
ディープラーニングベースの計算病理学は顕著に成功したが、従来のモデルは自然言語の命令やリッチなテキストベースのコンテキストを統合せずに画像解析に重点を置いている。
計算病理学における現在のマルチモーダル大言語モデル(MLLM)は、不十分なトレーニングデータ、マルチイメージ理解のための不十分なサポートと評価、自律的、診断的推論能力の欠如など、制限に直面している。
これらの制限に対処するために、人間の病理に特化して設計された新しいMLLMであるPathChat+を紹介します。
PathChat+は、最先端(SOTA)汎用モデルと他の病理モデルの両方と同様に、PathChat+が従来のPathChatコピロよりも大幅に優れていることを示した。
さらに、PathChat+を利用した推論可能なマルチエージェントAIシステムであるSlideSeekを、反復的、階層的診断推論を通じて、ギガピクセル全体スライディング画像(WSI)を自律的に評価し、困難かつオープンなディファレンシャル診断ベンチマークであるDDxBenchに高い精度で到達すると共に、視覚的にグラデーションされた人間の解釈可能な要約レポートを生成することができる。
関連論文リスト
- Interpretable and Reliable Detection of AI-Generated Images via Grounded Reasoning in MLLMs [43.08776932101172]
私たちは、バウンディングボックスと記述キャプションを付加したAI生成画像のデータセットを構築します。
次に、多段階最適化戦略によりMLLMを微調整する。
得られたモデルは、AI生成画像の検出と視覚的欠陥のローカライズの両方において、優れた性能を達成する。
論文 参考訳(メタデータ) (2025-06-08T08:47:44Z) - CPathAgent: An Agent-based Foundation Model for Interpretable High-Resolution Pathology Image Analysis Mimicking Pathologists' Diagnostic Logic [12.75486013022629]
CPathAgentは、病理学者の推論プロセスを模倣し、ズームイン/アウトおよびナビゲーション操作を自律的に実行するエージェントベースのモデルである。
CPathAgentは3つのベンチマークで既存のアプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T20:22:19Z) - Advancing Conversational Diagnostic AI with Multimodal Reasoning [44.1996223689966]
アーティキュレート・メディカル・インテリジェンス・エクスプローラー(AMIE)
システムは、対話フローを中間モデル出力によって動的に制御する状態認識対話フレームワークを実装している。
患者アクターとのチャットベースの相談の無作為で盲目なOSCEスタイルの研究において, AMIEをプライマリケア医師(PCP)と比較した。
論文 参考訳(メタデータ) (2025-05-06T20:52:01Z) - Segmentation, Classification and Interpretation of Breast Cancer Medical Images using Human-in-the-Loop Machine Learning [37.69303106863453]
本論文は、乳癌のゲノムデータと全スライドイメージング(WSI)解析の統合を扱っている。
病理医の関与は, より優れたセグメンテーションモデルの開発と, モデルの説明能力の向上に役立ったが, 分類結果は準最適であった。
論文 参考訳(メタデータ) (2024-03-29T10:49:02Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - A Foundational Multimodal Vision Language AI Assistant for Human
Pathology [6.759775793033743]
そこで我々は,1億枚の組織像を事前訓練した社内開発型視覚エンコーダを用いた,人間の病理のための視覚言語汎用AIアシスタントPathChatを提案する。
PathChatは、様々な組織の起源と疾患モデルの公開事例に基づいて、複数項目の質問に対して87%の精度で診断を行った。
論文 参考訳(メタデータ) (2023-12-13T00:24:37Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - PathAsst: A Generative Foundation AI Assistant Towards Artificial
General Intelligence of Pathology [15.419350834457136]
病理学における診断・予測分析に革命をもたらすための多モード生成基盤AIアシスタントであるPathAsstを提案する。
PathAsstの開発には、データ取得、CLIPモデル適応、PathAsstのマルチモーダル生成機能のトレーニングの3つの重要なステップが含まれている。
PathAsstの実験結果は、病理診断と治療プロセスを改善するためにAIを利用した生成基盤モデルを活用する可能性を示している。
論文 参考訳(メタデータ) (2023-05-24T11:55:50Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - OncoPetNet: A Deep Learning based AI system for mitotic figure counting
on H&E stained whole slide digital images in a large veterinary diagnostic
lab setting [47.38796928990688]
OncoPetNetの開発において,複数の最先端ディープラーニング技術を用いて病理組織像分類と有糸体像検出を行った。
提案システムは,14種類の癌に対して,ヒトのエキスパートベースラインと比較して,41例の有糸分裂計数性能を有意に向上させた。
デプロイでは、2つのセンターで1日3,323枚のデジタル全スライド画像を処理する高スループット獣医診断サービスにおいて、効果的な0.27分/スライダー推論が達成された。
論文 参考訳(メタデータ) (2021-08-17T20:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。