論文の概要: Representation Disentanglement for Multi-modal MR Analysis
- arxiv url: http://arxiv.org/abs/2102.11456v1
- Date: Tue, 23 Feb 2021 02:08:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 14:00:30.834970
- Title: Representation Disentanglement for Multi-modal MR Analysis
- Title(参考訳): マルチモーダルMR解析のための表現障害
- Authors: Jiahong Ouyang, Ehsan Adeli, Kilian M Pohl, Qingyu Zhao, Greg
Zaharchuk
- Abstract要約: 近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
対象とモダリティをまたいだ表現の類似性関係を正規化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために条件付き畳み込みを導入する。
- 参考スコア(独自算出の注目度): 15.498244253687337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal MR images are widely used in neuroimaging applications to provide
complementary information about the brain structures. Recent works have
suggested that multi-modal deep learning analysis can benefit from explicitly
disentangling anatomical (shape) and modality (appearance) representations from
the images. In this work, we challenge existing strategies by showing that they
do not naturally lead to representation disentanglement both in theory and in
practice. To address this issue, we propose a margin loss that regularizes the
similarity relationships of the representations across subjects and modalities.
To enable a robust training, we further introduce a modified conditional
convolution to design a single model for encoding images of all modalities.
Lastly, we propose a fusion function to combine the disentangled anatomical
representations as a set of modality-invariant features for downstream tasks.
We evaluate the proposed method on three multi-modal neuroimaging datasets.
Experiments show that our proposed method can achieve superior disentangled
representations compared to existing disentanglement strategies. Results also
indicate that the fused anatomical representation has great potential in the
downstream task of zero-dose PET reconstruction and brain tumor segmentation.
- Abstract(参考訳): マルチモーダルMR画像は、脳構造を補完する情報を提供するために、神経イメージングの応用に広く利用されている。
近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
本研究では,既存の戦略に挑戦し,理論上および実際上において,自然に表現の絡み合いを生じないことを示す。
この問題に対処するために,対象とモダリティ間の表現の類似性関係を規則化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために,修正条件の畳み込みを導入する。
最後に,下流タスクのモダリティ不変な特徴の集合として,異種解剖学的表現を結合する融合関数を提案する。
提案手法を3つのマルチモーダルニューロイメージングデータセット上で評価する。
実験により,提案手法は既存の解離戦略よりも優れた解離表現を実現できることが示された。
結果は、融合解剖学的表現は、ゼロ線量PET再建および脳腫瘍分割の下流タスクに大きな可能性を有することを示唆している。
関連論文リスト
- MedMAP: Promoting Incomplete Multi-modal Brain Tumor Segmentation with Alignment [20.358300924109162]
臨床ではMRIの特定のモダリティが欠如している可能性があるため、より困難なシナリオが提示される。
知識蒸留、ドメイン適応、共有潜在空間は一般的に有望な戦略として現れている。
本稿では,事前学習モデルの置換として,係わるモダリティの潜在的特徴を適切に定義された分布アンカーに整合させる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-08-18T13:16:30Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Learning Multi-Modal Brain Tumor Segmentation from Privileged
Semi-Paired MRI Images with Curriculum Disentanglement Learning [4.43142018105102]
本稿では,脳腫瘍セグメンテーションのための2段階(イントラモダリティとイントラモダリティ)のカリキュラム・アンタングルメント・ラーニング・フレームワークを提案する。
最初のステップでは、拡張されたモダリティ内スタイルのイメージで再構成とセグメンテーションを行うことを提案する。
第2のステップでは、モデルは、未ペア画像とペア画像の両方の再構成、教師なし/教師なし翻訳、セグメンテーションを共同で行う。
論文 参考訳(メタデータ) (2022-08-26T16:52:43Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Image Response Regression via Deep Neural Networks [4.646077947295938]
本稿では,空間変動係数モデルの枠組みにおける新しい非パラメトリック手法を提案する。
提案手法の主な考え方は,画像ボクセルを空間的有効サンプルとして扱うことであり,医用画像研究の大部分を悩ませる限られたサンプルサイズの問題を軽減することにある。
本手法の有効性を,集中シミュレーションを用いて実証し,その利点を2つの機能的磁気共鳴イメージングデータセットで分析した。
論文 参考訳(メタデータ) (2020-06-17T14:45:26Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。