論文の概要: ChatEXAONEPath: An Expert-level Multimodal Large Language Model for Histopathology Using Whole Slide Images
- arxiv url: http://arxiv.org/abs/2504.13023v1
- Date: Thu, 17 Apr 2025 15:33:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:48.304329
- Title: ChatEXAONEPath: An Expert-level Multimodal Large Language Model for Histopathology Using Whole Slide Images
- Title(参考訳): ChatEXAONEPath:全スライド画像を用いた病理組織学のためのエキスパートレベルのマルチモーダル大言語モデル
- Authors: Sangwook Kim, Soonyoung Lee, Jongseong Jang,
- Abstract要約: 本稿では,WSIを用いた病理組織学のエキスパートレベルのMLLMについて紹介する。
62.9%の受け入れ率でChatEXAONEPathを用いて病理像を診断できることを実証した。
提案モデルでは, 膵臓WSIsと臨床経過を種々のがんタイプから理解することができる。
- 参考スコア(独自算出の注目度): 19.661619004001654
- License:
- Abstract: Recent studies have made significant progress in developing large language models (LLMs) in the medical domain, which can answer expert-level questions and demonstrate the potential to assist clinicians in real-world clinical scenarios. Studies have also witnessed the importance of integrating various modalities with the existing LLMs for a better understanding of complex clinical contexts, which are innately multi-faceted by nature. Although studies have demonstrated the ability of multimodal LLMs in histopathology to answer questions from given images, they lack in understanding of thorough clinical context due to the patch-level data with limited information from public datasets. Thus, developing WSI-level MLLMs is significant in terms of the scalability and applicability of MLLMs in histopathology. In this study, we introduce an expert-level MLLM for histopathology using WSIs, dubbed as ChatEXAONEPath. We present a retrieval-based data generation pipeline using 10,094 pairs of WSIs and histopathology reports from The Cancer Genome Atlas (TCGA). We also showcase an AI-based evaluation protocol for a comprehensive understanding of the medical context from given multimodal information and evaluate generated answers compared to the original histopathology reports. We demonstrate the ability of diagnosing the given histopathology images using ChatEXAONEPath with the acceptance rate of 62.9% from 1,134 pairs of WSIs and reports. Our proposed model can understand pan-cancer WSIs and clinical context from various cancer types. We argue that our proposed model has the potential to assist clinicians by comprehensively understanding complex morphology of WSIs for cancer diagnosis through the integration of multiple modalities.
- Abstract(参考訳): 近年の医学領域における大規模言語モデル(LLM)の開発は,専門家レベルの疑問に答え,現実の臨床シナリオで臨床医を支援する可能性を示すために,大きな進歩を遂げている。
研究はまた、様々なモダリティを既存のLSMと統合して、自然に多面的な複雑な臨床コンテキストをよりよく理解することの重要性も見てきた。
病理組織学におけるマルチモーダルLSMは、与えられた画像から質問に答える能力を示したが、公開データセットからの限られた情報によるパッチレベルのデータによる、完全な臨床状況の理解が欠如している。
したがって,WSIレベルのMLLMの開発は,病理学におけるMLLMのスケーラビリティと適用性において重要である。
本研究では,ChatEXAONEPathと呼ばれるWSIを用いた病理組織学の専門家レベルMLLMを提案する。
我々は,10,094対のWSIとThe Cancer Genome Atlas (TCGA)の病理組織学的報告を用いた検索に基づくデータ生成パイプラインを提案する。
また、与えられたマルチモーダル情報から医療コンテキストを包括的に理解するためのAIベースの評価プロトコルも紹介し、元の病理組織学報告と比較して、生成された回答を評価する。
本稿では,ChatEXAONEPathを用いた病理組織像の診断能力を,1,134対のWSIとレポートから62.9%の受け入れ率で示す。
提案モデルでは, 膵臓WSIsと臨床経過を種々のがんタイプから理解することができる。
提案モデルでは,複数のモダリティを統合することで,WSIの複雑な形態を包括的に理解し,臨床医を支援できる可能性が示唆された。
関連論文リスト
- Multimodal Whole Slide Foundation Model for Pathology [9.46103337205135]
我々は,視覚的自己教師型学習と,病理報告と視覚言語アライメントを用いて事前学習したスライド基礎モデルであるTITANを提案する。
TITANは、汎用的なスライド表現を抽出し、リソース限定の臨床シナリオに一般化する病理報告を生成する。
論文 参考訳(メタデータ) (2024-11-29T12:39:57Z) - A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Clinical-grade Multi-Organ Pathology Report Generation for Multi-scale Whole Slide Images via a Semantically Guided Medical Text Foundation Model [3.356716093747221]
患者に対する病理報告を生成するために, 患者レベル多臓器報告生成(PMPRG)モデルを提案する。
我々のモデルはMETEORスコア0.68を達成し、我々のアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-09-23T22:22:32Z) - A Survey for Large Language Models in Biomedicine [31.719451674137844]
このレビューは、PubMed、Web of Science、arXivなどのデータベースから得られた484の出版物の分析に基づいている。
我々は、診断支援、薬物発見、パーソナライズドメディカル医療を含む幅広いバイオメディカル・タスクにおいて、ゼロショット学習におけるLLMの能力について検討する。
データプライバシの懸念、限定されたモデル解釈可能性、データセットの品質の問題、倫理など、LLMがバイオメディシック領域で直面する課題について論じる。
論文 参考訳(メタデータ) (2024-08-29T12:39:16Z) - HistoGym: A Reinforcement Learning Environment for Histopathological Image Analysis [9.615399811006034]
HistoGymは、医師の実際の過程を模倣して、スライド画像全体の診断を促進することを目的としている。
私たちは、WSIベースのシナリオと選択された地域ベースのシナリオを含む、さまざまな臓器や癌のシナリオを提供しています。
論文 参考訳(メタデータ) (2024-08-16T17:19:07Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - PathAsst: A Generative Foundation AI Assistant Towards Artificial
General Intelligence of Pathology [15.419350834457136]
病理学における診断・予測分析に革命をもたらすための多モード生成基盤AIアシスタントであるPathAsstを提案する。
PathAsstの開発には、データ取得、CLIPモデル適応、PathAsstのマルチモーダル生成機能のトレーニングの3つの重要なステップが含まれている。
PathAsstの実験結果は、病理診断と治療プロセスを改善するためにAIを利用した生成基盤モデルを活用する可能性を示している。
論文 参考訳(メタデータ) (2023-05-24T11:55:50Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。