論文の概要: DisC-Diff: Disentangled Conditional Diffusion Model for Multi-Contrast
MRI Super-Resolution
- arxiv url: http://arxiv.org/abs/2303.13933v2
- Date: Tue, 6 Jun 2023 20:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 18:53:41.498489
- Title: DisC-Diff: Disentangled Conditional Diffusion Model for Multi-Contrast
MRI Super-Resolution
- Title(参考訳): DisC-Diff:マルチコントラストMRI超解像のための遠方拡散モデル
- Authors: Ye Mao, Lan Jiang, Xi Chen, and Chao Li
- Abstract要約: マルチコントラスト脳MRI超解像のための条件拡散モデルDisC-Diffを提案する。
DisC-Diffは修復における不確実性を効果的に推定し、安定した最適化プロセスを保証する。
578個の正常脳を含むIXIデータセットと316個の病理脳を含む臨床データセットの2つのデータセットに対するDisC-Diffの有効性を検証した。
- 参考スコア(独自算出の注目度): 8.721585866050757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-contrast magnetic resonance imaging (MRI) is the most common management
tool used to characterize neurological disorders based on brain tissue
contrasts. However, acquiring high-resolution MRI scans is time-consuming and
infeasible under specific conditions. Hence, multi-contrast super-resolution
methods have been developed to improve the quality of low-resolution contrasts
by leveraging complementary information from multi-contrast MRI. Current deep
learning-based super-resolution methods have limitations in estimating
restoration uncertainty and avoiding mode collapse. Although the diffusion
model has emerged as a promising approach for image enhancement, capturing
complex interactions between multiple conditions introduced by multi-contrast
MRI super-resolution remains a challenge for clinical applications. In this
paper, we propose a disentangled conditional diffusion model, DisC-Diff, for
multi-contrast brain MRI super-resolution. It utilizes the sampling-based
generation and simple objective function of diffusion models to estimate
uncertainty in restorations effectively and ensure a stable optimization
process. Moreover, DisC-Diff leverages a disentangled multi-stream network to
fully exploit complementary information from multi-contrast MRI, improving
model interpretation under multiple conditions of multi-contrast inputs. We
validated the effectiveness of DisC-Diff on two datasets: the IXI dataset,
which contains 578 normal brains, and a clinical dataset with 316 pathological
brains. Our experimental results demonstrate that DisC-Diff outperforms other
state-of-the-art methods both quantitatively and visually.
- Abstract(参考訳): マルチコントラストMRI(Multi-Contrast MRI)は、脳組織のコントラストに基づいて神経疾患を特徴づける最も一般的な管理ツールである。
しかし、高分解能MRIスキャンの取得には時間がかかり、特定の条件下では不可能である。
そこで, マルチコントラスト超解像法は, マルチコントラストMRIの相補的情報を活用することで, 低コントラストの品質を向上させるために開発された。
現在のディープラーニングに基づく超解法は、復元の不確実性の推定とモード崩壊の回避に限界がある。
拡散モデルは画像強調のための有望なアプローチとして現れてきたが、マルチコントラストMRIによる複数の条件間の複雑な相互作用を捉えることは、臨床応用の課題である。
本稿では,マルチコントラスト脳MRI超解像のための不整合拡散モデルDisC-Diffを提案する。
拡散モデルのサンプリングベース生成と単純な目的関数を利用して、修復における不確実性を効果的に推定し、安定した最適化プロセスを保証する。
さらに,DEC-Diffは,マルチコントラストMRIからの補完的情報をフル活用し,マルチコントラスト入力の複数の条件下でのモデル解釈を改善する。
578個の正常脳を含むIXIデータセットと316個の病理脳を含む臨床データセットの2つのデータセットに対するDisC-Diffの有効性を検証した。
実験の結果,DisC-Diffは,他の最先端手法よりも定量的にも視覚的にも優れていた。
関連論文リスト
- Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - Compound Attention and Neighbor Matching Network for Multi-contrast MRI
Super-resolution [7.197850827700436]
MRIのマルチコントラスト超解像は、シングルイメージ超解像よりも優れた結果が得られる。
マルチコントラストMRI SRのための合成アテンションと近接マッチング(CANM-Net)を備えた新しいネットワークアーキテクチャを提案する。
CANM-Netは、ふりかえりと将来の実験において最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-07-05T09:44:02Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Flexible Alignment Super-Resolution Network for Multi-Contrast MRI [7.727046305845654]
超解像は、より正確な医療分析のために低解像度の画像を前処理する上で重要な役割を担っている。
マルチコントラスト磁気共鳴画像のためのフレキシブルアライメント・スーパーリゾリューション・ネットワーク(FASR-Net)を提案する。
論文 参考訳(メタデータ) (2022-10-07T11:07:20Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - High-Resolution Pelvic MRI Reconstruction Using a Generative Adversarial
Network with Attention and Cyclic Loss [3.4358954898228604]
超解像法はMRIの高速化に優れた性能を示した。
場合によっては、スキャン時間が長い場合でも高解像度画像を得るのは困難である。
我々は,周期的損失と注意機構を有するGAN(Generative Adversarial Network)を用いた新しい超解像法を提案した。
論文 参考訳(メタデータ) (2021-07-21T10:07:22Z) - ShuffleUNet: Super resolution of diffusion-weighted MRIs using deep
learning [47.68307909984442]
SISR(Single Image Super-Resolution)は、1つの低解像度入力画像から高解像度(HR)の詳細を得る技術である。
ディープラーニングは、大きなデータセットから事前知識を抽出し、低解像度の画像から優れたMRI画像を生成します。
論文 参考訳(メタデータ) (2021-02-25T14:52:23Z) - Multifold Acceleration of Diffusion MRI via Slice-Interleaved Diffusion
Encoding (SIDE) [50.65891535040752]
本稿では,Slice-Interleaved Diffusionと呼ばれる拡散符号化方式を提案する。
SIDEは、拡散重み付き(DW)画像ボリュームを異なる拡散勾配で符号化したスライスでインターリーブする。
また,高いスライスアンサンプデータからDW画像を効果的に再構成するためのディープラーニングに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-25T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。