論文の概要: Transferring Ultrahigh-Field Representations for Intensity-Guided Brain
Segmentation of Low-Field Magnetic Resonance Imaging
- arxiv url: http://arxiv.org/abs/2402.08409v1
- Date: Tue, 13 Feb 2024 12:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:30:17.435341
- Title: Transferring Ultrahigh-Field Representations for Intensity-Guided Brain
Segmentation of Low-Field Magnetic Resonance Imaging
- Title(参考訳): 低磁場磁気共鳴画像の強度誘導脳分割のための超高精細表現の転送
- Authors: Kwanseok Oh, Jieun Lee, Da-Woon Heo, Dinggang Shen, and Heung-Il Suk
- Abstract要約: 7T MRIの使用は、低磁場MRIと比較して高コストでアクセシビリティが低いため制限されている。
本研究では,入力されたLF磁気共鳴特徴表現と,脳画像分割タスクのための7T様特徴表現とを融合したディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 51.92395928517429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrahigh-field (UHF) magnetic resonance imaging (MRI), i.e., 7T MRI,
provides superior anatomical details of internal brain structures owing to its
enhanced signal-to-noise ratio and susceptibility-induced contrast. However,
the widespread use of 7T MRI is limited by its high cost and lower
accessibility compared to low-field (LF) MRI. This study proposes a
deep-learning framework that systematically fuses the input LF magnetic
resonance feature representations with the inferred 7T-like feature
representations for brain image segmentation tasks in a 7T-absent environment.
Specifically, our adaptive fusion module aggregates 7T-like features derived
from the LF image by a pre-trained network and then refines them to be
effectively assimilable UHF guidance into LF image features. Using
intensity-guided features obtained from such aggregation and assimilation,
segmentation models can recognize subtle structural representations that are
usually difficult to recognize when relying only on LF features. Beyond such
advantages, this strategy can seamlessly be utilized by modulating the contrast
of LF features in alignment with UHF guidance, even when employing arbitrary
segmentation models. Exhaustive experiments demonstrated that the proposed
method significantly outperformed all baseline models on both brain tissue and
whole-brain segmentation tasks; further, it exhibited remarkable adaptability
and scalability by successfully integrating diverse segmentation models and
tasks. These improvements were not only quantifiable but also visible in the
superlative visual quality of segmentation masks.
- Abstract(参考訳): 超高磁場(UHF)磁気共鳴イメージング(MRI)、すなわち7T MRIは、信号-雑音比の増大と感受性に起因したコントラストにより、脳内構造の優れた解剖学的詳細を提供する。
しかし 7T MRI の広範使用は,低磁場 (LF) MRI と比較して高コストでアクセシビリティが低いため制限されている。
本研究では,入力されたLF磁気共鳴特徴表現を,脳画像のセグメンテーションタスクにおける推定7T様特徴表現と体系的に融合するディープラーニングフレームワークを提案する。
具体的には, 適応核融合モジュールは, LF画像から抽出した7T様特徴を事前学習ネットワークで集約し, 効果的にUHF誘導をLF画像特徴に組み込むように改良する。
このようなアグリゲーションと同化から得られる強度誘導特徴を用いて、セグメンテーションモデルはLF特徴のみに依存する場合の認識が難しい微妙な構造表現を認識することができる。
このような利点の他に、任意のセグメンテーションモデルを用いた場合であっても、UHFガイダンスに従ってLF特徴のコントラストを調整することで、この戦略をシームレスに利用することができる。
実験により, 提案手法は脳組織および脳全体のセグメンテーションタスクのベースラインモデルに対して有意に優れており, さらに, 多様なセグメンテーションモデルとタスクを統合することで, 顕著な適応性と拡張性を示した。
これらの改善は定量化されただけでなく、セグメンテーションマスクの視覚的品質でも目に見える。
関連論文リスト
- Frequency Domain Modality-invariant Feature Learning for
Visible-infrared Person Re-Identification [79.9402521412239]
本稿では、周波数領域から見たモダリティの相違を低減するために、新しい周波数領域モダリティ不変特徴学習フレームワーク(FDMNet)を提案する。
我々のフレームワークでは、インスタンス適応振幅フィルタ(IAF)とPhrase-Preserving Normalization(PPNorm)という、2つの新しいモジュールを導入している。
論文 参考訳(メタデータ) (2024-01-03T17:11:27Z) - A Compact Implicit Neural Representation for Efficient Storage of
Massive 4D Functional Magnetic Resonance Imaging [14.493622422645053]
fMRI圧縮は、複雑な時間的ダイナミクス、低信号-雑音比、複雑な基礎的冗長性のために、ユニークな課題を生んでいる。
Inlicit Neural Representation (INR)に基づくfMRIデータに適した新しい圧縮パラダイムについて報告する。
論文 参考訳(メタデータ) (2023-11-30T05:54:37Z) - Compositional Representation Learning for Brain Tumour Segmentation [13.5112749699868]
ディープラーニングモデルは、大量のデータとピクセルレベルのアノテーションによって、人間の専門家レベルのパフォーマンスを達成することができる。
我々は、教師なし学習と弱監督を用いて堅牢な表現を学ぶために、混合監視フレームワークvMFNetを適用した。
弱いラベル付きデータを少量の完全アノテートデータのみに限定して, 良好な腫瘍セグメンテーション性能が得られることを示す。
論文 参考訳(メタデータ) (2023-10-10T12:19:39Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Convolutional neural network based on sparse graph attention mechanism
for MRI super-resolution [0.34410212782758043]
深層学習技術を用いた医用画像超解像(SR)再構成は、病変解析を強化し、診断効率と精度を向上させるために医師を支援する。
既存のディープラーニングベースのSR手法は、これらのモデルの表現能力を本質的に制限する畳み込みニューラルネットワーク(CNN)に依存している。
画像特徴抽出に複数の畳み込み演算子特徴抽出モジュール(MCO)を用いるAネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T06:14:22Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - Flexible Alignment Super-Resolution Network for Multi-Contrast MRI [7.727046305845654]
超解像は、より正確な医療分析のために低解像度の画像を前処理する上で重要な役割を担っている。
マルチコントラスト磁気共鳴画像のためのフレキシブルアライメント・スーパーリゾリューション・ネットワーク(FASR-Net)を提案する。
論文 参考訳(メタデータ) (2022-10-07T11:07:20Z) - Interpretability Aware Model Training to Improve Robustness against
Out-of-Distribution Magnetic Resonance Images in Alzheimer's Disease
Classification [8.050897403457995]
異なるMRIハードウェアから派生した分布外サンプルに対するロバスト性を改善するために,解釈可能性を考慮した対向訓練システムを提案する。
本報告では, 分布外のサンプルに対して有望な性能を示す予備的な結果を示す。
論文 参考訳(メタデータ) (2021-11-15T04:42:47Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。