論文の概要: Mono-Modalizing Extremely Heterogeneous Multi-Modal Medical Image Registration
- arxiv url: http://arxiv.org/abs/2506.15596v1
- Date: Wed, 18 Jun 2025 16:12:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.737053
- Title: Mono-Modalizing Extremely Heterogeneous Multi-Modal Medical Image Registration
- Title(参考訳): 極端に不均一なマルチモーダル医用画像レジストレーションのモノモダライズ
- Authors: Kyobin Choo, Hyunkyung Han, Jinyeong Kim, Chanyong Yoon, Seong Jae Hwang,
- Abstract要約: M2M-Regは、モノモーダル類似性のみを使用してマルチモーダルDIRモデルをトレーニングする新しいフレームワークである。
M2M-RegはPET-MRIとFA-MRIの従来法よりも最大2倍高い値が得られる。
- 参考スコア(独自算出の注目度): 3.1923251959845214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In clinical practice, imaging modalities with functional characteristics, such as positron emission tomography (PET) and fractional anisotropy (FA), are often aligned with a structural reference (e.g., MRI, CT) for accurate interpretation or group analysis, necessitating multi-modal deformable image registration (DIR). However, due to the extreme heterogeneity of these modalities compared to standard structural scans, conventional unsupervised DIR methods struggle to learn reliable spatial mappings and often distort images. We find that the similarity metrics guiding these models fail to capture alignment between highly disparate modalities. To address this, we propose M2M-Reg (Multi-to-Mono Registration), a novel framework that trains multi-modal DIR models using only mono-modal similarity while preserving the established architectural paradigm for seamless integration into existing models. We also introduce GradCyCon, a regularizer that leverages M2M-Reg's cyclic training scheme to promote diffeomorphism. Furthermore, our framework naturally extends to a semi-supervised setting, integrating pre-aligned and unaligned pairs only, without requiring ground-truth transformations or segmentation masks. Experiments on the Alzheimer's Disease Neuroimaging Initiative (ADNI) dataset demonstrate that M2M-Reg achieves up to 2x higher DSC than prior methods for PET-MRI and FA-MRI registration, highlighting its effectiveness in handling highly heterogeneous multi-modal DIR. Our code is available at https://github.com/MICV-yonsei/M2M-Reg.
- Abstract(参考訳): 臨床実践では、ポジトロン断層撮影(PET)や分画異方性(FA)などの機能的特徴を持つ画像モダリティは、正確な解釈やグループ分析のために構造基準(例えば、MRI、CT)と整合し、多モード変形可能な画像登録(DIR)を必要とすることが多い。
しかし、標準構造スキャンと比較して、これらのモダリティの極端に不均一性のため、従来の教師なしDIR法は、信頼性の高い空間マッピングや、しばしば歪んだ画像の学習に苦慮している。
これらのモデルを導く類似度指標は、非常に異なるモダリティ間のアライメントを捉えるのに失敗している。
そこで本研究では,M2M-Reg(Multi-to-Mono Registration)を提案する。M2M-Reg(Multi-to-Mono Registration)は,モノモーダル類似性のみを用いてマルチモーダルDIRモデルをトレーニングし,既存のモデルへのシームレスな統合のための確立されたアーキテクチャパラダイムを保存する。
また、M2M-Regの循環学習スキームを利用して微分同相を促進する正規化器GradCyConを導入する。
さらに,本フレームワークは半教師付き設定に自然に拡張され,事前整列と非整合のペアのみを,地中構造変換やセグメンテーションマスクを必要とせず統合する。
アルツハイマー病神経画像イニシアチブ(ADNI)データセットの実験では、M2M-RegはPET-MRIやFA-MRIの登録方法よりも最大2倍高いDSCを実現しており、高度に異質なマルチモーダルDIRを扱う上での有効性を強調している。
私たちのコードはhttps://github.com/MICV-yonsei/M2M-Reg.comで公開されています。
関連論文リスト
- Large Language Models for Multimodal Deformable Image Registration [50.91473745610945]
そこで本研究では,様々な医用画像からの深い特徴の整合を図るために,新しい粗いMDIRフレームワークLLM-Morphを提案する。
具体的には、まずCNNエンコーダを用いて、クロスモーダル画像ペアから深い視覚的特徴を抽出し、次に、最初のアダプタを使ってこれらのトークンを調整する。
第3に、トークンのアライメントのために、他の4つのアダプタを使用して、LLM符号化トークンをマルチスケールの視覚特徴に変換し、マルチスケールの変形場を生成し、粗いMDIRタスクを容易にする。
論文 参考訳(メタデータ) (2024-08-20T09:58:30Z) - Enhanced Masked Image Modeling to Avoid Model Collapse on Multi-modal MRI Datasets [6.3467517115551875]
マスク付き画像モデリング(MIM)は、ラベルなしデータの利用において有望であることを示す。
モデル崩壊を, 完全崩壊と次元崩壊の2つのタイプで解析し, 対処する。
HMPとPBTモジュールを併用した拡張MIM(E-MIM)を構築し,マルチモーダルMRIのモデル崩壊を回避する。
論文 参考訳(メタデータ) (2024-07-15T01:11:30Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - DuDoUniNeXt: Dual-domain unified hybrid model for single and
multi-contrast undersampled MRI reconstruction [24.937435059755288]
そこで我々はDuDoUniNeXtを提案する。DuDoUniNeXtは、不在、低品質、高品質な参照画像を含むシナリオに対応可能な、統合されたデュアルドメインMRI再構成ネットワークである。
実験により,提案モデルが最先端のSCモデルとMCモデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2024-03-08T12:26:48Z) - Explainable unsupervised multi-modal image registration using deep
networks [2.197364252030876]
MRI画像登録は、異なるモダリティ、時間点、スライスから幾何学的に「ペア」診断することを目的としている。
本研究では,我々のDLモデルが完全に説明可能であることを示し,さらなる医用画像データへのアプローチを一般化するための枠組みを構築した。
論文 参考訳(メタデータ) (2023-08-03T19:13:48Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。