論文の概要: DS3-Net: Difficulty-perceived Common-to-T1ce Semi-Supervised Multimodal
MRI Synthesis Network
- arxiv url: http://arxiv.org/abs/2203.06920v1
- Date: Mon, 14 Mar 2022 08:22:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 04:03:23.212198
- Title: DS3-Net: Difficulty-perceived Common-to-T1ce Semi-Supervised Multimodal
MRI Synthesis Network
- Title(参考訳): DS3-Net:多モードMRI合成ネットワーク
- Authors: Ziqi Huang, Li Lin, Pujin Cheng, Kai Pan, Xiaoying Tang
- Abstract要約: 本稿では,多モードMRI合成ネットワーク(DS3-Net)を提案する。
5%のペアデータしか持たないDS3-Netは、100%ペアデータを利用した最先端の画像翻訳手法と競合し、平均SSIMは0.8947、平均PSNRは23.60である。
- 参考スコア(独自算出の注目度): 3.9562534927482704
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Contrast-enhanced T1 (T1ce) is one of the most essential magnetic resonance
imaging (MRI) modalities for diagnosing and analyzing brain tumors, especially
gliomas. In clinical practice, common MRI modalities such as T1, T2, and fluid
attenuation inversion recovery are relatively easy to access while T1ce is more
challenging considering the additional cost and potential risk of allergies to
the contrast agent. Therefore, it is of great clinical necessity to develop a
method to synthesize T1ce from other common modalities. Current paired image
translation methods typically have the issue of requiring a large amount of
paired data and do not focus on specific regions of interest, e.g., the tumor
region, in the synthesization process. To address these issues, we propose a
Difficulty-perceived common-to-T1ce Semi-Supervised multimodal MRI Synthesis
network (DS3-Net), involving both paired and unpaired data together with
dual-level knowledge distillation. DS3-Net predicts a difficulty map to
progressively promote the synthesis task. Specifically, a pixelwise constraint
and a patchwise contrastive constraint are guided by the predicted difficulty
map. Through extensive experiments on the publiclyavailable BraTS2020 dataset,
DS3-Net outperforms its supervised counterpart in each respect. Furthermore,
with only 5% paired data, the proposed DS3-Net achieves competitive performance
with state-of-theart image translation methods utilizing 100% paired data,
delivering an average SSIM of 0.8947 and an average PSNR of 23.60.
- Abstract(参考訳): 造影T1(Contrast-enhanced T1ce)は、脳腫瘍、特にグリオーマの診断と解析に最も必須な磁気共鳴画像(MRI)の1つである。
臨床実践では、T1, T2, および流体減衰インバージョンリカバリのような一般的なMRIモダリティは比較的容易にアクセスでき、一方T1ceはコントラスト剤に対するアレルギーの追加コストと潜在的なリスクを考慮して、より困難である。
したがって、他の共通モダリティからT1ceを合成する方法を開発することは、非常に臨床的に必要である。
現在のペア画像翻訳法は、通常、大量のペアデータを必要とする問題があり、合成過程において、腫瘍領域のような特定の関心領域に焦点を当てない。
これらの問題に対処するために,2段階の知識蒸留を伴うペアデータとアンペアデータを含む,難易度の高い半スーパービジョン型マルチモーダルMRI合成ネットワーク(DS3-Net)を提案する。
DS3-Netは、合成タスクを段階的に促進する難易度マップを予測する。
具体的には、予測難易度マップにより、画素方向の制約とパッチ方向のコントラスト性のある制約を導出する。
公開されているBraTS2020データセットに関する広範な実験を通じて、DS3-Netは各点で教師付きデータセットよりも優れています。
さらに、5%のペアデータしか持たないDS3-Netは、100%ペアデータを利用した最先端画像翻訳手法と競合し、平均SSIMが0.8947、平均PSNRが23.60となる。
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - BTDNet: a Multi-Modal Approach for Brain Tumor Radiogenomic
Classification [14.547418131610188]
本稿ではMGMTプロモーターメチル化状態を予測するための新しいマルチモーダルアプローチBTDNetを提案する。
提案手法は, RSNA-ASNR-MICCAI BraTS 2021 Challengeにおける最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-05T11:56:06Z) - Generalizable synthetic MRI with physics-informed convolutional networks [57.628770497971246]
物理インフォームド・ディープ・ラーニング(Deep Learning-based)法を開発し,複数の脳磁気共鳴画像(MRI)のコントラストを1つの5分間の取得から合成する。
我々は、任意のコントラストに一般化し、ニューロイメージングプロトコルを加速する能力について検討する。
論文 参考訳(メタデータ) (2023-05-21T21:16:20Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Multi-modal Brain Tumor Segmentation via Missing Modality Synthesis and
Modality-level Attention Fusion [3.9562534927482704]
我々は、Modality-Level Attention Fusion Network (MAF-Net) というエンドツーエンドフレームワークを提案する。
提案するMAF-Netはより優れたT1ce合成性能と正確な脳腫瘍セグメンテーションをもたらす。
論文 参考訳(メタデータ) (2022-03-09T09:08:48Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - Joint super-resolution and synthesis of 1 mm isotropic MP-RAGE volumes
from clinical MRI exams with scans of different orientation, resolution and
contrast [4.987889348212769]
コントラスト,解像度,方向の異なる1つ以上の厚いスライススキャンを受信するCNNの訓練方法であるSynthSRを提案する。
提案手法では,ストリッピングやバイアスフィールド補正などの前処理は不要である。
論文 参考訳(メタデータ) (2020-12-24T17:29:53Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Deep Learning Estimation of Multi-Tissue Constrained Spherical
Deconvolution with Limited Single Shell DW-MRI [2.903217519429591]
深層学習は、第8次制約付き球面デコンボリューション(CSD)によって得られた情報内容を推定するために用いられる。
2つのネットワークアーキテクチャについて検討する: 中央に残留ブロックを持つ完全連結層からなる逐次ネットワーク(ResDNN)と、残ブロックを持つパッチベースの畳み込みニューラルネットワーク(ResCNN)。
繊維配向分布関数 (fODF) はマルチシェルDW-MRIの取得から得られたMT-CSTの基底的真実と比較して高い相関で復元できる。
論文 参考訳(メタデータ) (2020-02-20T15:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。