論文の概要: Principled Feature Disentanglement for High-Fidelity Unified Brain MRI Synthesis
- arxiv url: http://arxiv.org/abs/2406.14954v2
- Date: Mon, 20 Oct 2025 15:00:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.055963
- Title: Principled Feature Disentanglement for High-Fidelity Unified Brain MRI Synthesis
- Title(参考訳): 高忠実度統一脳MRI合成のための原理的特徴分散
- Authors: Jihoon Cho, Jonghye Woo, Jinah Park,
- Abstract要約: ハイブリッド融合GAN(HF-GAN)と呼ばれる,マルチシーケンスMR画像のための新しい統合フレームワークを提案する。
並列な1対1ストリームを利用して、モダリティ固有の情報を処理しながら、複雑な相補的特徴を抽出するために、強力な多対1ストリームを構築する。
健康脳MRIと病理脳MRIの両方の公開データセットの枠組みを検証した。
- 参考スコア(独自算出の注目度): 5.657045602016982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multisequence Magnetic Resonance Imaging (MRI) provides a more reliable diagnosis in clinical applications through complementary information across sequences. However, in practice, the absence of certain MR sequences is a common problem that can lead to inconsistent analysis results. In this work, we propose a novel unified framework for synthesizing multisequence MR images, called hybrid-fusion GAN (HF-GAN). The fundamental mechanism of this work is principled feature disentanglement, which aligns the design of the architecture with the complexity of the features. A powerful many-to-one stream is constructed for the extraction of complex complementary features, while utilizing parallel, one-to-one streams to process modality-specific information. These disentangled features are dynamically integrated into a common latent space by a channel attention-based fusion module (CAFF) and then transformed via a modality infuser to generate the target sequence. We validated our framework on public datasets of both healthy and pathological brain MRI. Quantitative and qualitative results show that HF-GAN achieves state-of-the-art performance, with our 2D slice-based framework notably outperforming a leading 3D volumetric model. Furthermore, the utilization of HF-GAN for data imputation substantially improves the performance of the downstream brain tumor segmentation task, demonstrating its clinical relevance.
- Abstract(参考訳): MR(Multiquence Magnetic Resonance Imaging)は、臨床応用において、シーケンス間の相補的な情報を通じてより信頼性の高い診断を提供する。
しかし、実際には、特定のMR配列が存在しないことは、矛盾する分析結果をもたらす一般的な問題である。
本研究では,HF-GAN(Hybrid-fusion GAN)と呼ばれる,マルチシーケンスMR画像を合成するための新しい統合フレームワークを提案する。
この作業の基本的なメカニズムは、アーキテクチャの設計と機能の複雑さを整合させる、原則化された機能障害である。
並列な1対1ストリームを利用して、モダリティ固有の情報を処理しながら、複雑な相補的特徴を抽出するために、強力な多対1ストリームを構築する。
これらの切り離された特徴は、チャネルアテンションベースの融合モジュール(CAFF)によって共通の潜在空間に動的に統合され、モダリティインフュージョンを介して変換され、ターゲットシーケンスを生成する。
健康脳MRIと病理脳MRIの両方の公開データセットの枠組みを検証した。
定量的および定性的な結果から,HF-GANは最先端の3次元ボリュームモデルよりも優れた2次元スライスベースのフレームワークで,最先端の性能を実現していることが示された。
さらに、HF-GANをデータ計算に利用することにより、下流脳腫瘍セグメンテーションタスクの性能が大幅に向上し、その臨床的意義が示される。
関連論文リスト
- NeuroMoE: A Transformer-Based Mixture-of-Experts Framework for Multi-Modal Neurological Disorder Classification [3.5313393560458826]
Deep Learningは最近、診断を助けるために医療データから意味のあるパターンを抽出する強力なツールとして登場した。
神経疾患を分類するための新しいトランスフォーマーベースのMixture-of-Experts(MoE)フレームワークを提案する。
我々のフレームワークは82.47%の検証精度を達成し、ベースライン法を10%以上上回っている。
論文 参考訳(メタデータ) (2025-06-17T20:40:06Z) - Interactive Gadolinium-Free MRI Synthesis: A Transformer with Localization Prompt Learning [6.716077690014641]
本研究では,非コントラストMR画像からCE-MRIを合成するトランスフォーマとローカライゼーション・プロンプツのフレームワークを提案する。
本アーキテクチャでは,マルチスケール機能を処理するために効率的なトランスフォーマーを使用する階層的バックボーン,空間的注意操作と相互注意機構を通じて相互補完情報を階層的に統合する多段階融合システム,という3つの重要なイノベーションを導入している。
このフレームワークは、放射線科医が推論中に診断プロンプトを入力し、人工知能と医療の専門知識を相乗化することによって、インタラクティブな臨床統合を可能にする。
論文 参考訳(メタデータ) (2025-03-03T07:44:28Z) - Multi-modal Contrastive Learning for Tumor-specific Missing Modality Synthesis [1.4132765964347058]
臨床環境での高品質なマルチモーダルMRIは、時間的制約、高コスト、患者の運動アーチファクトが原因で困難である。
PLAVEは,腫瘍領域に焦点をあてたマルチモーダルコントラスト学習を統合したMRIの再生モデルを構築した。
脳MR画像合成の課題で得られた結果は、提案モデルが欠落したモダリティを生成するのに優れていることを示している。
論文 参考訳(メタデータ) (2025-02-26T18:34:58Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - BrainVoxGen: Deep learning framework for synthesis of Ultrasound to MRI [2.982610402087728]
本研究は,脳の3次元超音波画像から3次元MRIボリュームを合成するための新しいディープラーニングフレームワークを提案する。
本研究は、神経画像領域における医療診断と治療計画における変革的応用を約束する。
論文 参考訳(メタデータ) (2023-10-11T20:37:59Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - IMPORTANT-Net: Integrated MRI Multi-Parameter Reinforcement Fusion
Generator with Attention Network for Synthesizing Absent Data [16.725225424047256]
我々は、新しい$textbfI$ntegrated MRI $textbfM$ulti-$textbfP$arameter reinf$textbfO$rcement fusion generato$textbfR$ wi$textbfT$hを開発した。
IMPORTANT-NetはMRIパラメーターの欠落を発生させ、同等の最先端ネットワークの性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-03T14:56:10Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Deep Learning based Multi-modal Computing with Feature Disentanglement
for MRI Image Synthesis [8.363448006582065]
本稿では,MRI合成のための深層学習に基づくマルチモーダル計算モデルを提案する。
提案手法は,各入力モダリティを,共有情報と特定の情報を持つモダリティ固有空間で分割する。
テストフェーズにおける目標モダリティの特定情報の欠如に対処するために、局所適応融合(laf)モジュールを採用してモダリティライクな擬似ターゲットを生成する。
論文 参考訳(メタデータ) (2021-05-06T17:22:22Z) - Mapping individual differences in cortical architecture using multi-view
representation learning [0.0]
本稿では,タスクfMRIと安静状態fMRIで計測されたアクティベーションと接続性に基づく情報を組み合わせて,新しい機械学習手法を提案する。
マルチビューディープ・オートエンコーダは、2つのfMRIモダリティを、患者を特徴づけるスカラースコアを推測するために予測モデルが訓練されたジョイント表現空間に融合させるように設計されている。
論文 参考訳(メタデータ) (2020-04-01T09:01:25Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。