論文の概要: Single-subject Multi-contrast MRI Super-resolution via Implicit Neural
Representations
- arxiv url: http://arxiv.org/abs/2303.15065v2
- Date: Fri, 22 Sep 2023 17:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 19:16:48.302429
- Title: Single-subject Multi-contrast MRI Super-resolution via Implicit Neural
Representations
- Title(参考訳): インプシットニューラル表現を用いた単目的マルチコントラストMRI超解像
- Authors: Julian McGinnis, Suprosanna Shit, Hongwei Bran Li, Vasiliki
Sideri-Lampretsa, Robert Graf, Maik Dannecker, Jiazhen Pan, Nil Stolt Ans\'o,
Mark M\"uhlau, Jan S. Kirschke, Daniel Rueckert, Benedikt Wiestler
- Abstract要約: Inlicit Neural Representations (INR) は連続空間関数における相補的視点の2つの異なるコントラストを学習することを提案した。
我々のモデルは、3つのデータセットを用いた実験において、異なるコントラストのペア間で現実的な超解像を提供する。
- 参考スコア(独自算出の注目度): 9.683341998041634
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clinical routine and retrospective cohorts commonly include multi-parametric
Magnetic Resonance Imaging; however, they are mostly acquired in different
anisotropic 2D views due to signal-to-noise-ratio and scan-time constraints.
Thus acquired views suffer from poor out-of-plane resolution and affect
downstream volumetric image analysis that typically requires isotropic 3D
scans. Combining different views of multi-contrast scans into high-resolution
isotropic 3D scans is challenging due to the lack of a large training cohort,
which calls for a subject-specific framework. This work proposes a novel
solution to this problem leveraging Implicit Neural Representations (INR). Our
proposed INR jointly learns two different contrasts of complementary views in a
continuous spatial function and benefits from exchanging anatomical information
between them. Trained within minutes on a single commodity GPU, our model
provides realistic super-resolution across different pairs of contrasts in our
experiments with three datasets. Using Mutual Information (MI) as a metric, we
find that our model converges to an optimum MI amongst sequences, achieving
anatomically faithful reconstruction. Code is available at:
https://github.com/jqmcginnis/multi_contrast_inr/
- Abstract(参考訳): 臨床ルーチンと振り返りコホートは一般的にマルチパラメトリック磁気共鳴イメージングを含むが、主に信号対雑音比と走査時間の制約により異方性2Dビューで取得される。
このように、獲得されたビューは、平面外解像度の低下に苦しめられ、通常等方性3dスキャンを必要とする下流のボリューム画像解析に影響を及ぼす。
マルチコントラストスキャンの異なるビューを高解像度の等方性3Dスキャンに組み合わせることは、大規模なトレーニングコホートがないために困難である。
本研究は,インプリシトニューラルネットワーク表現(INR)を利用した新しい解法を提案する。
提案したINRは,連続空間関数における相補的視点の2つの異なるコントラストを共同で学習し,それら間の解剖学的情報交換の利点を享受する。
単一のコモディティGPU上で数分でトレーニングされた私たちのモデルは、3つのデータセットによる実験において、異なるコントラストのペア間で現実的な超解像を提供する。
相互情報(MI)を指標として、我々のモデルは配列の最適MIに収束し、解剖学的に忠実な再構築を実現する。
https://github.com/jqmcginnis/multi_contrast_inr/
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - CycleINR: Cycle Implicit Neural Representation for Arbitrary-Scale Volumetric Super-Resolution of Medical Data [19.085329423308938]
CycleINRは、3次元医療データの超高解像度化のための新しい拡張インプリシトニューラルネットワーク表現モデルである。
そこで我々は,Slice-wise Noise Level Inconsistency (SNLI) を新たに導入し,Slice-wise noise Level inconsistency (SNLI) を定量的に評価する。
論文 参考訳(メタデータ) (2024-04-07T08:48:01Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - DisC-Diff: Disentangled Conditional Diffusion Model for Multi-Contrast
MRI Super-Resolution [8.721585866050757]
マルチコントラスト脳MRI超解像のための条件拡散モデルDisC-Diffを提案する。
DisC-Diffは修復における不確実性を効果的に推定し、安定した最適化プロセスを保証する。
578個の正常脳を含むIXIデータセットと316個の病理脳を含む臨床データセットの2つのデータセットに対するDisC-Diffの有効性を検証した。
論文 参考訳(メタデータ) (2023-03-24T11:42:45Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Joint Semi-supervised 3D Super-Resolution and Segmentation with Mixed
Adversarial Gaussian Domain Adaptation [13.477290490742224]
医用画像の高解像度化は、画像の解像度を向上させることを目的としているが、従来は低解像度データセットの特徴に基づいて訓練されている。
本稿では,画像とそのラベルの同時超解像を行う半教師付きマルチタスク生成対向ネットワーク(Gemini-GAN)を提案する。
提案手法は, 成人1,331人, 成人205人のトランスナショナル多民族集団に対して広く評価された。
論文 参考訳(メタデータ) (2021-07-16T15:42:39Z) - Joint super-resolution and synthesis of 1 mm isotropic MP-RAGE volumes
from clinical MRI exams with scans of different orientation, resolution and
contrast [4.987889348212769]
コントラスト,解像度,方向の異なる1つ以上の厚いスライススキャンを受信するCNNの訓練方法であるSynthSRを提案する。
提案手法では,ストリッピングやバイアスフィールド補正などの前処理は不要である。
論文 参考訳(メタデータ) (2020-12-24T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。