論文の概要: A Unified Framework for Synthesizing Multisequence Brain MRI via Hybrid Fusion
- arxiv url: http://arxiv.org/abs/2406.14954v1
- Date: Fri, 21 Jun 2024 08:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:23:19.088842
- Title: A Unified Framework for Synthesizing Multisequence Brain MRI via Hybrid Fusion
- Title(参考訳): ハイブリッド核融合による多系列脳MRIの統一化フレームワーク
- Authors: Jihoon Cho, Jonghye Woo, Jinah Park,
- Abstract要約: 我々はHF-GAN(Hybrid Fusion GAN)と呼ばれる,マルチシーケンスMR画像の合成のための新しい統合フレームワークを提案する。
本稿では,相補的情報と相補的情報との絡み合った抽出を確実にするためのハイブリッド核融合エンコーダを提案する。
共通特徴表現は、欠落したMR配列を合成するために、モダリティ注入器を介してターゲット潜在空間に変換される。
- 参考スコア(独自算出の注目度): 4.47838172826189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multisequence Magnetic Resonance Imaging (MRI) provides a reliable diagnosis in clinical applications through complementary information within sequences. However, in practice, the absence of certain MR sequences is a common problem that can lead to inconsistent analysis results. In this work, we propose a novel unified framework for synthesizing multisequence MR images, called Hybrid Fusion GAN (HF-GAN). We introduce a hybrid fusion encoder designed to ensure the disentangled extraction of complementary and modality-specific information, along with a channel attention-based feature fusion module that integrates the features into a common latent space handling the complexity from combinations of accessible MR sequences. Common feature representations are transformed into a target latent space via the modality infuser to synthesize missing MR sequences. We have performed experiments on multisequence brain MRI datasets from healthy individuals and patients diagnosed with brain tumors. Experimental results show that our method outperforms state-of-the-art methods in both quantitative and qualitative comparisons. In addition, a detailed analysis of our framework demonstrates the superiority of our designed modules and their effectiveness for use in data imputation tasks.
- Abstract(参考訳): MR(Multiquence Magnetic Resonance Imaging)は、臨床応用において、シーケンス内の相補的な情報を通じて信頼性の高い診断を提供する。
しかし、実際には、特定のMR配列が存在しないことは、矛盾する分析結果をもたらす一般的な問題である。
本研究では,HF-GAN(Hybrid Fusion GAN)と呼ばれる,マルチシーケンスMR画像を合成するための新しい統合フレームワークを提案する。
本稿では,相補的情報と相補的情報と相補的情報とのアンサングル抽出を保証するために設計されたハイブリッドフュージョンエンコーダと,それらの特徴を,アクセス可能なMRシーケンスの組み合わせから複雑な処理を行う共通潜在空間に統合するチャネルアテンションベースの特徴フュージョンモジュールを紹介する。
共通特徴表現は、欠落したMR配列を合成するために、モダリティ注入器を介してターゲット潜在空間に変換される。
健常人および脳腫瘍と診断された患者の脳MRIデータセットについて実験を行った。
実験結果から,本手法は定量比較と定性比較の両方において最先端の手法より優れていることがわかった。
さらに,本フレームワークの詳細な解析により,設計したモジュールの優越性と,データ計算タスクにおける有効性を示す。
関連論文リスト
- Biological Brain Age Estimation using Sex-Aware Adversarial Variational Autoencoder with Multimodal Neuroimages [8.610253537046692]
性対応性差型自動エンコーダ(SA-AVAE)を用いた脳年齢推定のための新しい枠組みを提案する。
我々は、潜在空間をモダリティ固有のコードと共有コードに分解し、モダリティの相補的および共通的な情報を表す。
我々は、学習した潜伏コードに性情報を組み込んで、モデルが脳年齢推定のために性固有の老化パターンをキャプチャすることを可能にする。
論文 参考訳(メタデータ) (2024-12-07T12:10:29Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - BrainVoxGen: Deep learning framework for synthesis of Ultrasound to MRI [2.982610402087728]
本研究は,脳の3次元超音波画像から3次元MRIボリュームを合成するための新しいディープラーニングフレームワークを提案する。
本研究は、神経画像領域における医療診断と治療計画における変革的応用を約束する。
論文 参考訳(メタデータ) (2023-10-11T20:37:59Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - IMPORTANT-Net: Integrated MRI Multi-Parameter Reinforcement Fusion
Generator with Attention Network for Synthesizing Absent Data [16.725225424047256]
我々は、新しい$textbfI$ntegrated MRI $textbfM$ulti-$textbfP$arameter reinf$textbfO$rcement fusion generato$textbfR$ wi$textbfT$hを開発した。
IMPORTANT-NetはMRIパラメーターの欠落を発生させ、同等の最先端ネットワークの性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-03T14:56:10Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Deep Learning based Multi-modal Computing with Feature Disentanglement
for MRI Image Synthesis [8.363448006582065]
本稿では,MRI合成のための深層学習に基づくマルチモーダル計算モデルを提案する。
提案手法は,各入力モダリティを,共有情報と特定の情報を持つモダリティ固有空間で分割する。
テストフェーズにおける目標モダリティの特定情報の欠如に対処するために、局所適応融合(laf)モジュールを採用してモダリティライクな擬似ターゲットを生成する。
論文 参考訳(メタデータ) (2021-05-06T17:22:22Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。