論文の概要: Transferring Ultrahigh-Field Representations for Intensity-Guided Brain
Segmentation of Low-Field Magnetic Resonance Imaging
- arxiv url: http://arxiv.org/abs/2402.08409v1
- Date: Tue, 13 Feb 2024 12:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:30:17.435341
- Title: Transferring Ultrahigh-Field Representations for Intensity-Guided Brain
Segmentation of Low-Field Magnetic Resonance Imaging
- Title(参考訳): 低磁場磁気共鳴画像の強度誘導脳分割のための超高精細表現の転送
- Authors: Kwanseok Oh, Jieun Lee, Da-Woon Heo, Dinggang Shen, and Heung-Il Suk
- Abstract要約: 7T MRIの使用は、低磁場MRIと比較して高コストでアクセシビリティが低いため制限されている。
本研究では,入力されたLF磁気共鳴特徴表現と,脳画像分割タスクのための7T様特徴表現とを融合したディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 51.92395928517429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrahigh-field (UHF) magnetic resonance imaging (MRI), i.e., 7T MRI,
provides superior anatomical details of internal brain structures owing to its
enhanced signal-to-noise ratio and susceptibility-induced contrast. However,
the widespread use of 7T MRI is limited by its high cost and lower
accessibility compared to low-field (LF) MRI. This study proposes a
deep-learning framework that systematically fuses the input LF magnetic
resonance feature representations with the inferred 7T-like feature
representations for brain image segmentation tasks in a 7T-absent environment.
Specifically, our adaptive fusion module aggregates 7T-like features derived
from the LF image by a pre-trained network and then refines them to be
effectively assimilable UHF guidance into LF image features. Using
intensity-guided features obtained from such aggregation and assimilation,
segmentation models can recognize subtle structural representations that are
usually difficult to recognize when relying only on LF features. Beyond such
advantages, this strategy can seamlessly be utilized by modulating the contrast
of LF features in alignment with UHF guidance, even when employing arbitrary
segmentation models. Exhaustive experiments demonstrated that the proposed
method significantly outperformed all baseline models on both brain tissue and
whole-brain segmentation tasks; further, it exhibited remarkable adaptability
and scalability by successfully integrating diverse segmentation models and
tasks. These improvements were not only quantifiable but also visible in the
superlative visual quality of segmentation masks.
- Abstract(参考訳): 超高磁場(UHF)磁気共鳴イメージング(MRI)、すなわち7T MRIは、信号-雑音比の増大と感受性に起因したコントラストにより、脳内構造の優れた解剖学的詳細を提供する。
しかし 7T MRI の広範使用は,低磁場 (LF) MRI と比較して高コストでアクセシビリティが低いため制限されている。
本研究では,入力されたLF磁気共鳴特徴表現を,脳画像のセグメンテーションタスクにおける推定7T様特徴表現と体系的に融合するディープラーニングフレームワークを提案する。
具体的には, 適応核融合モジュールは, LF画像から抽出した7T様特徴を事前学習ネットワークで集約し, 効果的にUHF誘導をLF画像特徴に組み込むように改良する。
このようなアグリゲーションと同化から得られる強度誘導特徴を用いて、セグメンテーションモデルはLF特徴のみに依存する場合の認識が難しい微妙な構造表現を認識することができる。
このような利点の他に、任意のセグメンテーションモデルを用いた場合であっても、UHFガイダンスに従ってLF特徴のコントラストを調整することで、この戦略をシームレスに利用することができる。
実験により, 提案手法は脳組織および脳全体のセグメンテーションタスクのベースラインモデルに対して有意に優れており, さらに, 多様なセグメンテーションモデルとタスクを統合することで, 顕著な適応性と拡張性を示した。
これらの改善は定量化されただけでなく、セグメンテーションマスクの視覚的品質でも目に見える。
関連論文リスト
- Unifying Subsampling Pattern Variations for Compressed Sensing MRI with Neural Operators [72.79532467687427]
圧縮センシングMRI(Compressed Sensing MRI)は、身体の内部解剖像をアンダーサンプルと圧縮された測定値から再構成する。
ディープニューラルネットワークは、高度にアンサンプされた測定結果から高品質なイメージを再構築する大きな可能性を示している。
CS-MRIにおけるサブサンプリングパターンや画像解像度に頑健な統一モデルを提案する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Unveiling Incomplete Modality Brain Tumor Segmentation: Leveraging Masked Predicted Auto-Encoder and Divergence Learning [6.44069573245889]
脳腫瘍のセグメンテーションは、特にマルチモーダルMRI(Multi-modal magnetic resonance imaging)における重要な課題である。
本稿では,不完全なモダリティデータから頑健な特徴学習を可能にする,マスク付き予測事前学習方式を提案する。
微調整段階において、我々は知識蒸留技術を用いて、完全なモダリティデータと欠落したモダリティデータの間に特徴を整列させ、同時にモデルロバスト性を向上する。
論文 参考訳(メタデータ) (2024-06-12T20:35:16Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Lite-Mind: Towards Efficient and Robust Brain Representation Network [23.132310312815967]
Lite-Mindは離散周波数変換(DFT)に基づく軽量で効率的で堅牢な脳表現学習パラダイムである
我々は、Lite-Mindが被写体1のNSDデータセットに対して94.6%のfMRI-to-image検索精度を実現し、MindEyeよりも98.7%少ないパラメータを持つことを示した。
Lite-Mindはまた、より小さなfMRIデータセットに移行できることが証明されており、GODデータセット上でゼロショット分類のための新しい最先端技術を確立している。
論文 参考訳(メタデータ) (2023-12-06T09:39:38Z) - Compositional Representation Learning for Brain Tumour Segmentation [13.5112749699868]
ディープラーニングモデルは、大量のデータとピクセルレベルのアノテーションによって、人間の専門家レベルのパフォーマンスを達成することができる。
我々は、教師なし学習と弱監督を用いて堅牢な表現を学ぶために、混合監視フレームワークvMFNetを適用した。
弱いラベル付きデータを少量の完全アノテートデータのみに限定して, 良好な腫瘍セグメンテーション性能が得られることを示す。
論文 参考訳(メタデータ) (2023-10-10T12:19:39Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - Flexible Alignment Super-Resolution Network for Multi-Contrast MRI [7.727046305845654]
超解像は、より正確な医療分析のために低解像度の画像を前処理する上で重要な役割を担っている。
マルチコントラスト磁気共鳴画像のためのフレキシブルアライメント・スーパーリゾリューション・ネットワーク(FASR-Net)を提案する。
論文 参考訳(メタデータ) (2022-10-07T11:07:20Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。