論文の概要: M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients
- arxiv url: http://arxiv.org/abs/2006.10135v2
- Date: Tue, 14 Jul 2020 18:47:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:58:50.764312
- Title: M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients
- Title(参考訳): M2Net:脳腫瘍患者の生存時間予測のためのマルチモーダルマルチチャネルネットワーク
- Authors: Tao Zhou, Huazhu Fu, Yu Zhang, Changqing Zhang, Xiankai Lu, Jianbing
Shen, and Ling Shao
- Abstract要約: 生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
- 参考スコア(独自算出の注目度): 151.4352001822956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early and accurate prediction of overall survival (OS) time can help to
obtain better treatment planning for brain tumor patients. Although many OS
time prediction methods have been developed and obtain promising results, there
are still several issues. First, conventional prediction methods rely on
radiomic features at the local lesion area of a magnetic resonance (MR) volume,
which may not represent the full image or model complex tumor patterns. Second,
different types of scanners (i.e., multi-modal data) are sensitive to different
brain regions, which makes it challenging to effectively exploit the
complementary information across multiple modalities and also preserve the
modality-specific properties. Third, existing methods focus on prediction
models, ignoring complex data-to-label relationships. To address the above
issues, we propose an end-to-end OS time prediction model; namely, Multi-modal
Multi-channel Network (M2Net). Specifically, we first project the 3D MR volume
onto 2D images in different directions, which reduces computational costs,
while preserving important information and enabling pre-trained models to be
transferred from other tasks. Then, we use a modality-specific network to
extract implicit and high-level features from different MR scans. A multi-modal
shared network is built to fuse these features using a bilinear pooling model,
exploiting their correlations to provide complementary information. Finally, we
integrate the outputs from each modality-specific network and the multi-modal
shared network to generate the final prediction result. Experimental results
demonstrate the superiority of our M2Net model over other methods.
- Abstract(参考訳): 総生存時間(os)の早期かつ正確な予測は、脳腫瘍患者のより良い治療計画を得るのに役立つ。
多くのOS時間予測手法が開発され、有望な結果が得られたが、まだいくつか問題がある。
第1に、従来の予測方法は、磁気共鳴(mr)ボリュームの局所病変領域における放射線学的特徴に依存しており、完全な画像や複雑な腫瘍のモデルを表すものではない。
第二に、異なるタイプのスキャナー(つまりマルチモーダルデータ)は異なる脳領域に敏感であり、複数のモーダルにまたがる補完情報を効果的に活用し、モダリティ固有の特性を維持することが困難である。
第三に、既存の手法は予測モデルに焦点を合わせ、複雑なデータ-ラベル関係を無視している。
上記の問題に対処するため,マルチモーダルマルチチャネルネットワーク (M2Net) のエンドツーエンドOS時間予測モデルを提案する。
具体的には、まず3dmrボリュームを異なる方向の2d画像に投影し、計算コストを低減し、重要な情報を保存し、事前学習したモデルを他のタスクから転送できるようにする。
次に,モダリティ特有のネットワークを用いて,mrスキャンから暗黙的かつ高レベルな特徴を抽出する。
マルチモーダル共有ネットワークは、これらの機能をバイリニアプーリングモデルを用いて融合させ、それらの相関を利用して補完情報を提供する。
最後に、各モダリティ固有ネットワークとマルチモーダル共有ネットワークからの出力を統合し、最終的な予測結果を生成する。
M2Netモデルが他の手法よりも優れていることを示す実験結果を得た。
関連論文リスト
- M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - HyperMM : Robust Multimodal Learning with Varying-sized Inputs [4.377889826841039]
HyperMMは、さまざまなサイズの入力で学習するために設計されたエンドツーエンドフレームワークである。
本稿では,条件付きハイパーネットワークを用いたユニバーサル特徴抽出器のトレーニング手法を提案する。
アルツハイマー病の診断と乳癌の分類の2つの課題において,本手法の利点を実験的に実証した。
論文 参考訳(メタデータ) (2024-07-30T12:13:18Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - BTDNet: a Multi-Modal Approach for Brain Tumor Radiogenomic
Classification [14.547418131610188]
本稿ではMGMTプロモーターメチル化状態を予測するための新しいマルチモーダルアプローチBTDNetを提案する。
提案手法は, RSNA-ASNR-MICCAI BraTS 2021 Challengeにおける最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-05T11:56:06Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - TMSS: An End-to-End Transformer-based Multimodal Network for
Segmentation and Survival Prediction [0.0]
腫瘍学者は、分析においてこれを行うのではなく、医療画像や患者の歴史などの複数のソースから、脳内の情報を融合させる。
本研究は,がんの定量化と患者の生存率推定において,腫瘍学者の分析行動を模倣する深層学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-12T06:22:05Z) - Uncertainty-aware Multi-modal Learning via Cross-modal Random Network
Prediction [22.786774541083652]
クロスモーダルランダムネットワーク予測(CRNP)による特徴密度の測定により不確かさを推定する不確実性認識型マルチモーダル学習器を提案する。
CRNPは、安定したトレーニングプロセスを持ちながら、異なる予測タスク間の変換にほとんど適応を必要としないように設計されている。
論文 参考訳(メタデータ) (2022-07-22T03:00:10Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - MS-Net: Multi-Site Network for Improving Prostate Segmentation with
Heterogeneous MRI Data [75.73881040581767]
本稿では,ロバスト表現を学習し,前立腺のセグメンテーションを改善するための新しいマルチサイトネットワーク(MS-Net)を提案する。
当社のMS-Netは,すべてのデータセットのパフォーマンスを一貫して改善し,マルチサイト学習における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-02-09T14:11:50Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。