論文の概要: Integrating Pathology and CT Imaging for Personalized Recurrence Risk Prediction in Renal Cancer
- arxiv url: http://arxiv.org/abs/2508.21581v1
- Date: Fri, 29 Aug 2025 12:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.047873
- Title: Integrating Pathology and CT Imaging for Personalized Recurrence Risk Prediction in Renal Cancer
- Title(参考訳): 腎癌におけるパーソナライズされた再発リスク予測のための病理組織とCT画像の統合
- Authors: Daniël Boeke, Cedrik Blommestijn, Rebecca N. Wray, Kalina Chupetlovska, Shangqi Gao, Zeyu Gao, Regina G. H. Beets-Tan, Mireia Crispin-Ortuzar, James O. Jones, Wilson Silva, Ines P. Machado,
- Abstract要約: 本研究は,術前CTと術後病理組織像(WSI)を統合したマルチモーダル再発予測法について検討した。
事前訓練されたエンコーダとCoxベースのサバイバルモデリングを備えたモジュール型ディープラーニングフレームワークが、単調、後期核融合、中間核融合のセットアップでテストされた。
WSIベースのモデルは、CTのみのモデルよりも一貫して優れており、病理の予後の強さが強調されている。
- 参考スコア(独自算出の注目度): 3.928620610295438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrence risk estimation in clear cell renal cell carcinoma (ccRCC) is essential for guiding postoperative surveillance and treatment. The Leibovich score remains widely used for stratifying distant recurrence risk but offers limited patient-level resolution and excludes imaging information. This study evaluates multimodal recurrence prediction by integrating preoperative computed tomography (CT) and postoperative histopathology whole-slide images (WSIs). A modular deep learning framework with pretrained encoders and Cox-based survival modeling was tested across unimodal, late fusion, and intermediate fusion setups. In a real-world ccRCC cohort, WSI-based models consistently outperformed CT-only models, underscoring the prognostic strength of pathology. Intermediate fusion further improved performance, with the best model (TITAN-CONCH with ResNet-18) approaching the adjusted Leibovich score. Random tie-breaking narrowed the gap between the clinical baseline and learned models, suggesting discretization may overstate individualized performance. Using simple embedding concatenation, radiology added value primarily through fusion. These findings demonstrate the feasibility of foundation model-based multimodal integration for personalized ccRCC risk prediction. Future work should explore more expressive fusion strategies, larger multimodal datasets, and general-purpose CT encoders to better match pathology modeling capacity.
- Abstract(参考訳): クリア細胞腎細胞癌(ccRCC)の再発リスク評価は術後の監視と治療の指導に不可欠である。
ライボビッチスコアは、遠隔再発リスクの階層化に広く使用されているが、患者レベルの解像度が制限され、画像情報も除外されている。
本研究は,術前CTと術後病理組織像(WSIs)を統合することで,マルチモーダル再発予測を評価する。
事前訓練されたエンコーダとCoxベースのサバイバルモデリングを備えたモジュール型ディープラーニングフレームワークが、単調、後期核融合、中間核融合のセットアップでテストされた。
現実のccRCCコホートでは、WSIベースのモデルはCTのみのモデルよりも一貫して優れており、病理学の予後の強さを裏付けている。
中間核融合により性能が向上し、最良のモデル(TITAN-CONCH with ResNet-18)は調整されたライボビッチスコアに近づいた。
ランダムタイブレークは臨床ベースラインと学習モデルの間のギャップを狭め、離散化は個別化のパフォーマンスを過度に表す可能性があることを示唆した。
単純な埋め込み結合を用いて、ラジオロジーは主に融合によって価値を付加した。
これらの結果は,ccRCCの個人化リスク予測のための基礎モデルに基づくマルチモーダル統合の実現可能性を示している。
今後の研究は、より表現力のある融合戦略、より大規模なマルチモーダルデータセット、そして病理モデリング能力に合う汎用CTエンコーダを探求することである。
関連論文リスト
- impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - MeD-3D: A Multimodal Deep Learning Framework for Precise Recurrence Prediction in Clear Cell Renal Cell Carcinoma (ccRCC) [0.0]
本研究では、CT、MRI、病理組織像全体(WSI)、臨床データ、ゲノムプロファイルを含む多モードデータを統合するディープラーニング(DL)フレームワークを提案する。
このフレームワークは、特定のモダリティが欠如している場合でも推論を可能にすることで、臨床環境で共通の課題である不完全なデータを扱うように設計されている。
論文 参考訳(メタデータ) (2025-07-10T15:11:09Z) - STG: Spatiotemporal Graph Neural Network with Fusion and Spatiotemporal Decoupling Learning for Prognostic Prediction of Colorectal Cancer Liver Metastasis [9.511932098831322]
大腸癌肝転移(KCCM)を予測するためのマルチモーダル時間グラフニューラルネットワーク(STG)フレームワークを提案する。
我々のSTGフレームワークはCT画像と臨床データをヘテロジニアスグラフ構造に結合し,腫瘍分布エッジの同時モデリングと時間的進化を可能にする。
軽量版ではパラメータ数を78.55%削減し、最先端の性能を維持している。
論文 参考訳(メタデータ) (2025-05-06T02:41:34Z) - Enhanced Survival Prediction in Head and Neck Cancer Using Convolutional Block Attention and Multimodal Data Fusion [7.252280210331731]
本稿では,頭頸部癌患者の生存率を予測するための深層学習に基づくアプローチを提案する。
提案手法は,特徴抽出をCBAM (Convolutional Block Attention Module) とマルチモーダルデータ融合層と統合する。
最終的な予測は、完全にパラメトリックな離散時間生存モデルによって達成される。
論文 参考訳(メタデータ) (2024-10-29T07:56:04Z) - CC-DCNet: Dynamic Convolutional Neural Network with Contrastive Constraints for Identifying Lung Cancer Subtypes on Multi-modality Images [13.655407979403945]
肺がんサブタイプを多次元・多モード画像で正確に分類するための新しい深層学習ネットワークを提案する。
提案モデルの強みは, 対のCT-病理画像セットと独立のCT画像セットの両方を動的に処理できることにある。
また,ネットワーク学習を通じてモダリティ関係を定量的にマッピングするコントラスト制約モジュールも開発した。
論文 参考訳(メタデータ) (2024-07-18T01:42:00Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。