論文の概要: CARE: A Molecular-Guided Foundation Model with Adaptive Region Modeling for Whole Slide Image Analysis
- arxiv url: http://arxiv.org/abs/2602.21637v1
- Date: Wed, 25 Feb 2026 07:01:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.736003
- Title: CARE: A Molecular-Guided Foundation Model with Adaptive Region Modeling for Whole Slide Image Analysis
- Title(参考訳): CARE:全スライド画像解析のための適応領域モデリングを用いた分子誘導基礎モデル
- Authors: Di Zhang, Zhangpeng Gong, Xiaobo Pang, Jiashuai Liu, Junbo Lu, Hao Cui, Jiusong Ge, Zhi Zeng, Kai Yi, Yinghua Li, Si Liu, Tingsong Yu, Haoran Wang, Mireia Crispin-Ortuzar, eimiao Yu, Chen Li, Zeyu Gao,
- Abstract要約: 本稿では, 画像全体を形態学的に関連のある領域に自動的に分割する病理基盤モデルであるCross-Modal Adaptive Region (CARE)を提案する。
通常主流の基盤モデルで使用される事前トレーニングデータのわずか10分の1に基づいて、CAREは33のダウンストリームベンチマークでより優れた平均性能を達成する。
- 参考スコア(独自算出の注目度): 23.45449218534003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models have recently achieved impressive success in computational pathology, demonstrating strong generalization across diverse histopathology tasks. However, existing models overlook the heterogeneous and non-uniform organization of pathological regions of interest (ROIs) because they rely on natural image backbones not tailored for tissue morphology. Consequently, they often fail to capture the coherent tissue architecture beyond isolated patches, limiting interpretability and clinical relevance. To address these challenges, we present Cross-modal Adaptive Region Encoder (CARE), a foundation model for pathology that automatically partitions WSIs into several morphologically relevant regions. Specifically, CARE employs a two-stage pretraining strategy: (1) a self-supervised unimodal pretraining stage that learns morphological representations from 34,277 whole-slide images (WSIs) without segmentation annotations, and (2) a cross-modal alignment stage that leverages RNA and protein profiles to refine the construction and representation of adaptive regions. This molecular guidance enables CARE to identify biologically relevant patterns and generate irregular yet coherent tissue regions, selecting the most representative area as ROI. CARE supports a broad range of pathology-related tasks, using either the ROI feature or the slide-level feature obtained by aggregating adaptive regions. Based on only one-tenth of the pretraining data typically used by mainstream foundation models, CARE achieves superior average performance across 33 downstream benchmarks, including morphological classification, molecular prediction, and survival analysis, and outperforms other foundation model baselines overall.
- Abstract(参考訳): 基礎モデルは近年計算病理学において顕著に成功し、様々な病理学タスクにまたがる強力な一般化を実証している。
しかし、既存のモデルでは、組織形態に適合しない自然像の背骨に依存しているため、関心領域(ROI)の均一で一様でない組織を見落としている。
その結果、分離されたパッチを超えるコヒーレントな組織構造を捉えることができず、解釈可能性や臨床関連性を制限している。
これらの課題に対処するために,WSIを複数の形態的関連領域に自動的に分割する病理基盤モデルであるクロスモーダル適応領域エンコーダ(CARE)を提案する。
特にCAREは,(1)セグメント化アノテーションを使わずに34,277個の全スライド画像(WSI)から形態的表現を学習する自己教師型単潮前訓練段階,(2)RNAとタンパク質のプロファイルを活用して適応領域の構築と表現を洗練させる横断的アライメント段階,という2段階の事前訓練段階を採用している。
この分子誘導により、CAREは生物学的に関連のあるパターンを同定し、不規則だがコヒーレントな組織領域を生成し、最も代表的な領域をROIとして選択することができる。
CAREは、ROI特徴または適応領域を集約して得られるスライドレベル特徴を使用して、幅広い病理関連タスクをサポートしている。
主流の基盤モデルで一般的に使用される事前学習データの10分の1だけに基づいて、CAREは、形態学的分類、分子予測、生存分析を含む33の下流ベンチマークで優れた平均性能を達成し、他の基盤モデルベースラインを総合的に上回る。
関連論文リスト
- Benchmarking Computational Pathology Foundation Models For Semantic Segmentation [0.0]
CONCH、PathDino、CellViTのコンカレント機能は、すべてのデータセットで個々のモデルのパフォーマンスを7.95%向上させた。
視覚言語基盤モデルであるCONCHは,視覚のみの基礎モデルと比較して,データセット間で最高の性能を示した。
論文 参考訳(メタデータ) (2026-02-21T08:00:46Z) - Towards Spatial Transcriptomics-driven Pathology Foundation Models [32.70436266943553]
本稿では、局所的な分子情報を病理視覚エンコーダに注入するビジョン・オミクス自己教師型学習フレームワークを提案する。
腫瘍および14臓器の正常サンプルにまたがる70,000対の遺伝子の発現スポット-tissue領域のトレーニングによりSEALをインスタンス化する。
SEALエンコーダは、アウト・オブ・ディストリビューションに堅牢なドメイン一般化を示し、遺伝子対イメージ検索のような新しいクロスモーダル機能を実現する。
論文 参考訳(メタデータ) (2026-02-15T15:06:45Z) - EXAONE Path 2.5: Pathology Foundation Model with Multi-Omics Alignment [7.030162358506499]
病理組織学的,ゲノム学的,エピジェネティックおよび転写学的様態を共同でモデル化した病理基盤モデルEXAONE Path 2.5を提案する。
EXAONEパス2.5を2つの相補的なベンチマークで6つの主要な病理基盤モデルと比較した。
論文 参考訳(メタデータ) (2025-12-16T02:31:53Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - From Classification to Cross-Modal Understanding: Leveraging Vision-Language Models for Fine-Grained Renal Pathology [9.268389327736735]
臨床的に現実的な数ショット問題として,細粒度糸球体サブタイプをモデル化した。
この条件下では、病理特化モデルと汎用視覚言語モデルの両方を評価する。
論文 参考訳(メタデータ) (2025-11-15T01:44:11Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - HATs: Hierarchical Adaptive Taxonomy Segmentation for Panoramic Pathology Image Analysis [19.04633470168871]
パノラマ画像分割は、形態学的に複雑で可変スケールの解剖学のため、顕著な課題である。
本稿では, 腎臓構造のパノラマ像を, 詳細な解剖学的知見を生かして網羅的に把握することを目的とした, 階層型適応分類法を提案する。
提案手法では,各領域,機能単位,細胞にまたがる空間的関係を多機能な「プラグ・アンド・プレイ」損失関数に変換する革新的HATs手法と,解剖学的階層化と大規模考察を,全パノラマ要素に統一された単純な行列表現に変換すること,そして,(3)。
論文 参考訳(メタデータ) (2024-06-30T05:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。