論文の概要: DCMIL: A Progressive Representation Learning Model of Whole Slide Images for Cancer Prognosis Analysis
- arxiv url: http://arxiv.org/abs/2510.14403v1
- Date: Thu, 16 Oct 2025 08:03:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.771217
- Title: DCMIL: A Progressive Representation Learning Model of Whole Slide Images for Cancer Prognosis Analysis
- Title(参考訳): DCMIL:がん予後解析のための全スライド画像のプログレッシブ表現学習モデル
- Authors: Chao Tu, Kun Huang, Jie Zhang, Qianjin Feng, Yu Zhang, Zhenyuan Ning,
- Abstract要約: 本稿では,がん予後のためのスライド画像全体を処理するプログレッシブ表現学習モデルを提案する。
このモデルは高密度アノテーションに頼らず、ギガピクセルサイズのWSIを結果予測に変換することを可能にする。
- 参考スコア(独自算出の注目度): 20.81711023855778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The burgeoning discipline of computational pathology shows promise in harnessing whole slide images (WSIs) to quantify morphological heterogeneity and develop objective prognostic modes for human cancers. However, progress is impeded by the computational bottleneck of gigapixel-size inputs and the scarcity of dense manual annotations. Current methods often overlook fine-grained information across multi-magnification WSIs and variations in tumor microenvironments. Here, we propose an easy-to-hard progressive representation learning model, termed dual-curriculum contrastive multi-instance learning (DCMIL), to efficiently process WSIs for cancer prognosis. The model does not rely on dense annotations and enables the direct transformation of gigapixel-size WSIs into outcome predictions. Extensive experiments on twelve cancer types (5,954 patients, 12.54 million tiles) demonstrate that DCMIL outperforms standard WSI-based prognostic models. Additionally, DCMIL identifies fine-grained prognosis-salient regions, provides robust instance uncertainty estimation, and captures morphological differences between normal and tumor tissues, with the potential to generate new biological insights. All codes have been made publicly accessible at https://github.com/tuuuc/DCMIL.
- Abstract(参考訳): 計算病理学の急激な分野は、形態的不均一性を定量化し、ヒト癌に対する客観的な予後モードを開発するために、スライド画像全体(WSI)を活用することを約束している。
しかし、ギガピクセルサイズの入力の計算ボトルネックと高密度手動アノテーションの不足により、進歩は妨げられている。
現在の方法は、多磁化WSIと腫瘍の微小環境の変動にまたがる微細な情報を見落としていることが多い。
本稿では,癌予後のためのWSIを効率的に処理するために,DCMIL(Dual-curriculum contrastive multi-instance learning)と呼ばれる,難易度から難易度までのプログレッシブな表現学習モデルを提案する。
このモデルは高密度アノテーションに頼らず、ギガピクセルサイズのWSIを結果予測に変換することを可能にする。
12種類のがん(5,954人、12.54万個のタイル)に対する大規模な実験は、DCMILが標準的なWSIベースの予後モデルより優れていることを示した。
さらに、DCMILは、微細な予後関連領域を特定し、堅牢なインスタンスの不確実性を推定し、正常組織と腫瘍組織の間の形態的差異を捉え、新しい生物学的洞察を生み出す可能性を秘めている。
すべてのコードはhttps://github.com/tuuuc/DCMILで公開されている。
関連論文リスト
- PathoHR: Breast Cancer Survival Prediction on High-Resolution Pathological Images [25.80544600229013]
乳癌生存予測のための新しいパイプラインであるPathoHRを提案する。
当社のアプローチでは,パッチワイドWSI表現を強化するために,プラグイン・アンド・プレイ高解像度ビジョン変換器(ViT)を組み込む必要がある。
論文 参考訳(メタデータ) (2025-03-23T07:37:24Z) - Foundation Models for Slide-level Cancer Subtyping in Digital Pathology [1.7641392161755438]
本研究の目的は,MIL フレームワークを用いて,WSI 上の癌サブタイプのための事前訓練戦略に基づいて開発された様々な特徴抽出器の性能を比較することである。
その結果、6種類の皮膚がんの亜型を予測するために、イメージネットが事前訓練したモデルを超える基礎モデルの有効性が示された。
論文 参考訳(メタデータ) (2024-10-21T11:04:58Z) - Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Multimodal Prototyping for cancer survival prediction [45.61869793509184]
ギガピクセルヒストロジー全体スライディング画像(WSI)と転写学的プロファイルを組み合わせたマルチモーダルサバイバル法は,患者の予後と成層化に特に有望である。
現在のアプローチでは、WSIを小さなパッチ(>10,000パッチ)にトークン化し、トランスクリプトミクスを遺伝子グループに分割し、結果を予測するためにTransformerを使用して統合する。
このプロセスは多くのトークンを生成し、これは注意を計算するための高いメモリ要求をもたらし、ポストホック解釈可能性分析を複雑にする。
我々のフレームワークは、新しい解釈可能性解析を解き放ちながら、はるかに少ない計算で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-06-28T20:37:01Z) - Cross-attention-based saliency inference for predicting cancer
metastasis on whole slide images [3.7282630026096597]
乳がんリンパ節の微小転移を全スライド画像上で同定するために, クロスアテンションに基づく静注型インスタンス推定MIL (CASiiMIL) を提案する。
陰性表現学習アルゴリズムを導入し,腫瘍WSIに対する感度を向上させるために,有意な注意重み付けの学習を容易にする。
提案モデルでは, 2つの腫瘍転移検出データセットに対して, 最先端のMIL法より優れていた。
論文 参考訳(メタデータ) (2023-09-18T00:56:19Z) - CAMIL: Context-Aware Multiple Instance Learning for Cancer Detection and Subtyping in Whole Slide Images [3.1118773046912382]
がん診断のためのコンテキスト認識型マルチインスタンス学習(CAMIL)アーキテクチャを提案する。
CAMILは隣接する制約のある注意を取り入れて、WSI(Whole Slide Images)内のタイル間の依存関係を考慮し、コンテキスト制約を事前の知識として統合する。
CAMILは非小細胞肺癌(TCGA-NSCLC)の亜型であり,リンパ節転移は検出され,AUCは97.5%,95.9%,88.1%であった。
論文 参考訳(メタデータ) (2023-05-09T10:06:37Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Incorporating intratumoral heterogeneity into weakly-supervised deep
learning models via variance pooling [5.606290756924216]
ギガピクセル全体のスライド画像(WSI)からのがん生存予測などの教師付き学習タスクは、計算病理学において重要な課題である。
我々は,MILモデルが腫瘍内不均一性を予測に組み込むことのできる,新しい分散プーリングアーキテクチャを開発した。
がんゲノムアトラスの4,479ギガピクセルWSIを用いた実証研究は、MILフレームワークに分散プールを追加することで、5種類のがんの生存予測性能が向上することを示した。
論文 参考訳(メタデータ) (2022-06-17T16:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。