論文の概要: A Self-supervised Multimodal Deep Learning Approach to Differentiate Post-radiotherapy Progression from Pseudoprogression in Glioblastoma
- arxiv url: http://arxiv.org/abs/2502.03999v1
- Date: Thu, 06 Feb 2025 11:57:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:31:38.442716
- Title: A Self-supervised Multimodal Deep Learning Approach to Differentiate Post-radiotherapy Progression from Pseudoprogression in Glioblastoma
- Title(参考訳): 放射線治療後進行と偽プログレスを鑑別するための自己教師型マルチモーダルディープラーニングアプローチ
- Authors: Ahmed Gomaa, Yixing Huang, Pluvio Stephan, Katharina Breininger, Benjamin Frey, Arnd Dörfler, Oliver Schnell, Daniel Delev, Roland Coras, Charlotte Schmitter, Jenny Stritzelberger, Sabine Semrau, Andreas Maier, Siming Bayer, Stephan Schönecker, Dieter H Heiland, Peter Hau, Udo S. Gaipl, Christoph Bert, Rainer Fietkau, Manuel A. Schmidt, Florian Putz,
- Abstract要約: グリオ芽腫(GBM)に対する放射線治療後のPsPとTrue Progression(TP)の正確な鑑別は最適な治療計画に不可欠である。
本研究では, 日常的な解剖学的MRI画像, 臨床パラメータ, RT治療計画情報からの補完情報を利用して, 予測精度を向上させるマルチモーダル深層学習手法を提案する。
- 参考スコア(独自算出の注目度): 5.98776969609135
- License:
- Abstract: Accurate differentiation of pseudoprogression (PsP) from True Progression (TP) following radiotherapy (RT) in glioblastoma (GBM) patients is crucial for optimal treatment planning. However, this task remains challenging due to the overlapping imaging characteristics of PsP and TP. This study therefore proposes a multimodal deep-learning approach utilizing complementary information from routine anatomical MR images, clinical parameters, and RT treatment planning information for improved predictive accuracy. The approach utilizes a self-supervised Vision Transformer (ViT) to encode multi-sequence MR brain volumes to effectively capture both global and local context from the high dimensional input. The encoder is trained in a self-supervised upstream task on unlabeled glioma MRI datasets from the open BraTS2021, UPenn-GBM, and UCSF-PDGM datasets to generate compact, clinically relevant representations from FLAIR and T1 post-contrast sequences. These encoded MR inputs are then integrated with clinical data and RT treatment planning information through guided cross-modal attention, improving progression classification accuracy. This work was developed using two datasets from different centers: the Burdenko Glioblastoma Progression Dataset (n = 59) for training and validation, and the GlioCMV progression dataset from the University Hospital Erlangen (UKER) (n = 20) for testing. The proposed method achieved an AUC of 75.3%, outperforming the current state-of-the-art data-driven approaches. Importantly, the proposed approach relies on readily available anatomical MRI sequences, clinical data, and RT treatment planning information, enhancing its clinical feasibility. The proposed approach addresses the challenge of limited data availability for PsP and TP differentiation and could allow for improved clinical decision-making and optimized treatment plans for GBM patients.
- Abstract(参考訳): グリオ芽腫(GBM)患者における放射線療法(RT)後の真性進行(TP)と偽プログレス(PsP)の正確な鑑別は最適な治療計画に不可欠である。
しかし,PsPとTPの重なり合う画像特性のため,この課題は依然として困難である。
そこで本研究では, 日常的な解剖学的MRI画像, 臨床パラメータ, RT治療計画情報からの補完情報を利用して, 予測精度を向上させるマルチモーダルディープラーニング手法を提案する。
このアプローチでは、自己監督型視覚変換器(ViT)を用いて、多列MR脳のボリュームを符号化し、高次元入力からグローバルとローカルの両方のコンテキストを効果的にキャプチャする。
エンコーダは、オープンBraTS2021、UPenn-GBM、UCSF-PDGMデータセットからラベルなしグリオーマMRIデータセットの自己教師付き上流タスクで訓練され、FLAIRおよびT1ポストコントラストシーケンスからコンパクトで臨床的に関連性のある表現を生成する。
これらの符号化されたMR入力は、ガイド付きクロスモーダルアテンションを通して臨床データとRT治療計画情報と統合され、進行分類精度が向上する。
この研究は、トレーニングと検証のためのBurdenko Glioblastoma Progression Dataset (n = 59)と、テストのためのUniversity Hospital Erlangen (UKER) (n = 20)のGlioCMV Progression Datasetという2つのセンターのデータセットを使用して開発された。
提案手法は75.3%のAUCを達成し、現在の最先端のデータ駆動手法よりも優れていた。
重要なことは、提案手法は、手軽に利用できる解剖学的MRIシーケンス、臨床データ、RT治療計画情報に依存し、臨床応用の可能性を高めることである。
提案手法は, PsP と TP の分化に限定したデータ利用率の課題に対処し, 臨床診断の改善と GBM 患者の治療計画の最適化を可能にした。
関連論文リスト
- Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Graph-based multimodal multi-lesion DLBCL treatment response prediction
from PET images [0.0]
診断後, 標準フロントライン治療における非対応患者数(30~40%)は依然として顕著である。
本研究は,適応治療を必要とする高リスク患者を特定するためのコンピュータ支援アプローチを開発することを目的とする。
複数の病変からのイメージング情報を組み合わせた最近のグラフニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T08:16:45Z) - TranSOP: Transformer-based Multimodal Classification for Stroke
Treatment Outcome Prediction [2.358784542343728]
本稿では,臨床メタデータと画像情報を利用した分類手法として,トランスフォーマーベースのマルチモーダルネットワーク(TranSOP)を提案する。
これには3D非造影CT(non-contrast Computed tomography)の特徴と臨床情報を効率的に組み合わせる融合モジュールが含まれる。
単モーダルおよびマルチモーダルデータを用いた比較実験では、最先端のAUCスコアが0.85である。
論文 参考訳(メタデータ) (2023-01-25T21:05:10Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Deep Learning based Multi-modal Computing with Feature Disentanglement
for MRI Image Synthesis [8.363448006582065]
本稿では,MRI合成のための深層学習に基づくマルチモーダル計算モデルを提案する。
提案手法は,各入力モダリティを,共有情報と特定の情報を持つモダリティ固有空間で分割する。
テストフェーズにおける目標モダリティの特定情報の欠如に対処するために、局所適応融合(laf)モジュールを採用してモダリティライクな擬似ターゲットを生成する。
論文 参考訳(メタデータ) (2021-05-06T17:22:22Z) - MIA-Prognosis: A Deep Learning Framework to Predict Therapy Response [58.0291320452122]
本稿では,患者の予後と治療反応を予測するための統合型深層学習手法を提案する。
我々は,マルチモーダル非同期時系列分類タスクとして,確率モデリングを定式化する。
我々の予測モデルは、長期生存の観点から、低リスク、高リスクの患者をさらに階層化する可能性がある。
論文 参考訳(メタデータ) (2020-10-08T15:30:17Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。