論文の概要: Bridging Modalities: Joint Synthesis and Registration Framework for Aligning Diffusion MRI with T1-Weighted Images
- arxiv url: http://arxiv.org/abs/2601.11689v1
- Date: Fri, 16 Jan 2026 13:22:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.286441
- Title: Bridging Modalities: Joint Synthesis and Registration Framework for Aligning Diffusion MRI with T1-Weighted Images
- Title(参考訳): ブリジングモード:T1強調画像を用いた拡散MRIの合成と登録フレームワーク
- Authors: Xiaofan Wang, Junyi Wang, Yuqian Chen, Lauren J. O' Donnell, Fan Zhang,
- Abstract要約: 本稿では,生成登録ネットワークに基づく教師なし登録フレームワークを提案する。
これにより、b0およびT1w画像間の元のマルチモーダル登録問題を、生成された画像と実際のT1w画像との間の一元的登録タスクに変換する。
2つの独立したデータセットで行った実験により、提案手法はマルチモーダル登録タスクにおける最先端のアプローチよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 8.802336586929613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal image registration between diffusion MRI (dMRI) and T1-weighted (T1w) MRI images is a critical step for aligning diffusion-weighted imaging (DWI) data with structural anatomical space. Traditional registration methods often struggle to ensure accuracy due to the large intensity differences between diffusion data and high-resolution anatomical structures. This paper proposes an unsupervised registration framework based on a generative registration network, which transforms the original multimodal registration problem between b0 and T1w images into a unimodal registration task between a generated image and the real T1w image. This effectively reduces the complexity of cross-modal registration. The framework first employs an image synthesis model to generate images with T1w-like contrast, and then learns a deformation field from the generated image to the fixed T1w image. The registration network jointly optimizes local structural similarity and cross-modal statistical dependency to improve deformation estimation accuracy. Experiments conducted on two independent datasets demonstrate that the proposed method outperforms several state-of-the-art approaches in multimodal registration tasks.
- Abstract(参考訳): 拡散MRI(dMRI)とT1強調MRI(T1w)のマルチモーダル画像登録は,拡散強調画像(DWI)データを構造解剖学的空間と整合させる重要なステップである。
従来の登録法は、拡散データと高分解能解剖学的構造の間に大きな強度差があるため、精度を確保するのに苦労することが多い。
本稿では、生成登録ネットワークに基づく教師なし登録フレームワークを提案し、b0とT1wの間の元のマルチモーダル登録問題を、生成された画像と実際のT1w画像の間の非モーダル登録タスクに変換する。
これにより、クロスモーダル登録の複雑さが効果的に減少する。
フレームワークは、まず、画像合成モデルを用いて、T1wのようなコントラストで画像を生成し、次いで、生成された画像から固定されたT1w画像への変形場を学習する。
登録ネットワークは、局所構造類似性とクロスモーダル統計依存を共同で最適化し、変形推定精度を向上させる。
2つの独立したデータセットで行った実験により、提案手法はマルチモーダル登録タスクにおける最先端のアプローチよりも優れていることが示された。
関連論文リスト
- Mono-Modalizing Extremely Heterogeneous Multi-Modal Medical Image Registration [3.1923251959845214]
M2M-Regは、モノモーダル類似性のみを使用してマルチモーダルDIRモデルをトレーニングする新しいフレームワークである。
M2M-RegはPET-MRIとFA-MRIの従来法よりも最大2倍高い値が得られる。
論文 参考訳(メタデータ) (2025-06-18T16:12:46Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z) - Dual-Flow Transformation Network for Deformable Image Registration with
Region Consistency Constraint [95.30864269428808]
現在のディープラーニング(DL)ベースの画像登録アプローチは、畳み込みニューラルネットワークを利用して、ある画像から別の画像への空間変換を学習する。
一対のイメージ内のROIの類似性を最大化する領域整合性制約を持つ新しいデュアルフロー変換ネットワークを提案する。
4つの公開3次元MRIデータセットを用いた実験により,提案手法は精度と一般化において最高の登録性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-04T05:30:44Z) - Adversarial Uni- and Multi-modal Stream Networks for Multimodal Image
Registration [20.637787406888478]
CT画像とMR画像との変形性画像登録は多くの画像誘導療法において不可欠である。
本稿では,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
本手法は2つの臨床データセットで評価され,最先端の従来法と学習法と比較して有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-06T14:44:06Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。