論文の概要: DS3-Net: Difficulty-perceived Common-to-T1ce Semi-Supervised Multimodal
MRI Synthesis Network
- arxiv url: http://arxiv.org/abs/2203.06920v1
- Date: Mon, 14 Mar 2022 08:22:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-03-16 04:03:23.212198
- Title: DS3-Net: Difficulty-perceived Common-to-T1ce Semi-Supervised Multimodal
MRI Synthesis Network
- Title(参考訳): DS3-Net:多モードMRI合成ネットワーク
- Authors: Ziqi Huang, Li Lin, Pujin Cheng, Kai Pan, Xiaoying Tang
- Abstract要約: 本稿では,多モードMRI合成ネットワーク(DS3-Net)を提案する。
5%のペアデータしか持たないDS3-Netは、100%ペアデータを利用した最先端の画像翻訳手法と競合し、平均SSIMは0.8947、平均PSNRは23.60である。
- 参考スコア(独自算出の注目度): 3.9562534927482704
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Contrast-enhanced T1 (T1ce) is one of the most essential magnetic resonance
imaging (MRI) modalities for diagnosing and analyzing brain tumors, especially
gliomas. In clinical practice, common MRI modalities such as T1, T2, and fluid
attenuation inversion recovery are relatively easy to access while T1ce is more
challenging considering the additional cost and potential risk of allergies to
the contrast agent. Therefore, it is of great clinical necessity to develop a
method to synthesize T1ce from other common modalities. Current paired image
translation methods typically have the issue of requiring a large amount of
paired data and do not focus on specific regions of interest, e.g., the tumor
region, in the synthesization process. To address these issues, we propose a
Difficulty-perceived common-to-T1ce Semi-Supervised multimodal MRI Synthesis
network (DS3-Net), involving both paired and unpaired data together with
dual-level knowledge distillation. DS3-Net predicts a difficulty map to
progressively promote the synthesis task. Specifically, a pixelwise constraint
and a patchwise contrastive constraint are guided by the predicted difficulty
map. Through extensive experiments on the publiclyavailable BraTS2020 dataset,
DS3-Net outperforms its supervised counterpart in each respect. Furthermore,
with only 5% paired data, the proposed DS3-Net achieves competitive performance
with state-of-theart image translation methods utilizing 100% paired data,
delivering an average SSIM of 0.8947 and an average PSNR of 23.60.
- Abstract(参考訳): 造影T1(Contrast-enhanced T1ce)は、脳腫瘍、特にグリオーマの診断と解析に最も必須な磁気共鳴画像(MRI)の1つである。
臨床実践では、T1, T2, および流体減衰インバージョンリカバリのような一般的なMRIモダリティは比較的容易にアクセスでき、一方T1ceはコントラスト剤に対するアレルギーの追加コストと潜在的なリスクを考慮して、より困難である。
したがって、他の共通モダリティからT1ceを合成する方法を開発することは、非常に臨床的に必要である。
現在のペア画像翻訳法は、通常、大量のペアデータを必要とする問題があり、合成過程において、腫瘍領域のような特定の関心領域に焦点を当てない。
これらの問題に対処するために,2段階の知識蒸留を伴うペアデータとアンペアデータを含む,難易度の高い半スーパービジョン型マルチモーダルMRI合成ネットワーク(DS3-Net)を提案する。
DS3-Netは、合成タスクを段階的に促進する難易度マップを予測する。
具体的には、予測難易度マップにより、画素方向の制約とパッチ方向のコントラスト性のある制約を導出する。
公開されているBraTS2020データセットに関する広範な実験を通じて、DS3-Netは各点で教師付きデータセットよりも優れています。
さらに、5%のペアデータしか持たないDS3-Netは、100%ペアデータを利用した最先端画像翻訳手法と競合し、平均SSIMが0.8947、平均PSNRが23.60となる。
関連論文リスト
- GANeXt: A Fully ConvNeXt-Enhanced Generative Adversarial Network for MRI- and CBCT-to-CT Synthesis [4.966806084618106]
我々は3Dパッチベースの完全ConvNeXtによるCT合成のための生成対向ネットワークであるGANeXtを提案する。
特に、GANeXtは、3D ConvNeXtブロックとコンパクトカーネルを積み重ねた効率的なU字型ジェネレータを使用している。
合成品質を向上させるため、平均絶対誤差(MAE)、知覚的損失、セグメンテーションに基づくマスクMAE、対向的損失を含む損失関数の組み合わせを組み込んだ。
論文 参考訳(メタデータ) (2025-12-22T12:32:16Z) - Pattern-Aware Diffusion Synthesis of fMRI/dMRI with Tissue and Microstructural Refinement [34.55493442995441]
パターン認識型2次元モーダル3次元拡散フレームワークであるPSDを提案する。
また, 組織微細化ネットワークと高効率な組織微細化を一体化して, 組織微細化と微細化の維持を図っている。
PSNR/SSIMスコアはfMRI合成では29.83dB/90.84%、dMRI合成では30.00dB/77.55%である。
論文 参考訳(メタデータ) (2025-11-07T03:51:00Z) - Comparative Analysis of GAN and Diffusion for MRI-to-CT translation [0.7668561705871794]
MRIからCTへの変換によく使われる2つのアーキテクチャの性能を比較した。
古典的な3次元翻訳問題を横面上の2次元翻訳列に分割する。
また、生成過程の条件付けが1つのMRI画像/スライスおよび複数のMRIスライスに与える影響についても検討した。
論文 参考訳(メタデータ) (2025-09-26T08:33:34Z) - SAGCNet: Spatial-Aware Graph Completion Network for Missing Slice Imputation in Population CMR Imaging [3.0273769091742144]
利用可能なスライスから欠落したスライスを補うために、ボリュームMRI合成法が開発されている。
心臓磁気共鳴(CMR)のような体積MRIデータの本質的な3次元特性は、スライス計算の欠如に重大な課題をもたらす。
本稿では,空間対応グラフ補完ネットワーク(SAGCNet)を提案し,全容積データへの依存を克服する。
論文 参考訳(メタデータ) (2025-08-09T16:56:07Z) - Diffusion Bridge Models for 3D Medical Image Translation [15.751276389741877]
本稿では,T1w MRIとDTIモダリティ間の3次元脳画像変換のための拡散ブリッジモデルを提案する。
我々のモデルは、T1w画像から高品質なDTI分画異方性画像を生成することを学習し、その逆も実現し、モダリティデータの増大を可能にする。
論文 参考訳(メタデータ) (2025-04-21T17:49:06Z) - Unified 3D MRI Representations via Sequence-Invariant Contrastive Learning [0.15749416770494706]
定量的MRI(qMRI)を利用したシーケンス不変な自己教師型フレームワークを提案する。
健常脳セグメンテーション(IXI)、脳梗塞セグメンテーション(ARC)、MRIによるデノイング実験は、ベースラインSSLアプローチよりも有意な増加を示した。
また,本モデルは,よりスケーラブルで臨床的に信頼性の高いボリューム分析の可能性を示した。
論文 参考訳(メタデータ) (2025-01-21T11:27:54Z) - DRIFTS: Optimizing Domain Randomization with Synthetic Data and Weight Interpolation for Fetal Brain Tissue Segmentation [1.7134826630987745]
胎児脳MRIにおけるSynthSeg法における領域外一般化ポテンシャルの最大化について述べる。
我々はDRIFTSを単一ソース領域の一般化のための効果的かつ実用的なソリューションとして提案する。
論文 参考訳(メタデータ) (2024-11-11T10:17:44Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - BTDNet: a Multi-Modal Approach for Brain Tumor Radiogenomic
Classification [14.547418131610188]
本稿ではMGMTプロモーターメチル化状態を予測するための新しいマルチモーダルアプローチBTDNetを提案する。
提案手法は, RSNA-ASNR-MICCAI BraTS 2021 Challengeにおける最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-05T11:56:06Z) - Learned Local Attention Maps for Synthesising Vessel Segmentations [43.314353195417326]
我々は、T2 MRIのみから、Willis(CoW)円の主大脳動脈の分節を合成するためのエンコーダ・デコーダモデルを提案する。
これは、セグメンテーションラベルを拡張することによって生成された学習されたローカルアテンションマップを使用し、ネットワークはCoWの合成に関連するT2 MRIからのみ情報を抽出する。
論文 参考訳(メタデータ) (2023-08-24T15:32:27Z) - Generalizable synthetic MRI with physics-informed convolutional networks [57.628770497971246]
物理インフォームド・ディープ・ラーニング(Deep Learning-based)法を開発し,複数の脳磁気共鳴画像(MRI)のコントラストを1つの5分間の取得から合成する。
我々は、任意のコントラストに一般化し、ニューロイメージングプロトコルを加速する能力について検討する。
論文 参考訳(メタデータ) (2023-05-21T21:16:20Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Multi-modal Brain Tumor Segmentation via Missing Modality Synthesis and
Modality-level Attention Fusion [3.9562534927482704]
我々は、Modality-Level Attention Fusion Network (MAF-Net) というエンドツーエンドフレームワークを提案する。
提案するMAF-Netはより優れたT1ce合成性能と正確な脳腫瘍セグメンテーションをもたらす。
論文 参考訳(メタデータ) (2022-03-09T09:08:48Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - Joint super-resolution and synthesis of 1 mm isotropic MP-RAGE volumes
from clinical MRI exams with scans of different orientation, resolution and
contrast [4.987889348212769]
コントラスト,解像度,方向の異なる1つ以上の厚いスライススキャンを受信するCNNの訓練方法であるSynthSRを提案する。
提案手法では,ストリッピングやバイアスフィールド補正などの前処理は不要である。
論文 参考訳(メタデータ) (2020-12-24T17:29:53Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Deep Learning Estimation of Multi-Tissue Constrained Spherical
Deconvolution with Limited Single Shell DW-MRI [2.903217519429591]
深層学習は、第8次制約付き球面デコンボリューション(CSD)によって得られた情報内容を推定するために用いられる。
2つのネットワークアーキテクチャについて検討する: 中央に残留ブロックを持つ完全連結層からなる逐次ネットワーク(ResDNN)と、残ブロックを持つパッチベースの畳み込みニューラルネットワーク(ResCNN)。
繊維配向分布関数 (fODF) はマルチシェルDW-MRIの取得から得られたMT-CSTの基底的真実と比較して高い相関で復元できる。
論文 参考訳(メタデータ) (2020-02-20T15:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。