論文の概要: Explainable unsupervised multi-modal image registration using deep
networks
- arxiv url: http://arxiv.org/abs/2308.01994v1
- Date: Thu, 3 Aug 2023 19:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 14:52:41.350720
- Title: Explainable unsupervised multi-modal image registration using deep
networks
- Title(参考訳): ディープネットワークを用いた説明不能なマルチモーダル画像登録
- Authors: Chengjia Wang, Giorgos Papanastasiou
- Abstract要約: MRI画像登録は、異なるモダリティ、時間点、スライスから幾何学的に「ペア」診断することを目的としている。
本研究では,我々のDLモデルが完全に説明可能であることを示し,さらなる医用画像データへのアプローチを一般化するための枠組みを構築した。
- 参考スコア(独自算出の注目度): 2.197364252030876
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Clinical decision making from magnetic resonance imaging (MRI) combines
complementary information from multiple MRI sequences (defined as
'modalities'). MRI image registration aims to geometrically 'pair' diagnoses
from different modalities, time points and slices. Both intra- and
inter-modality MRI registration are essential components in clinical MRI
settings. Further, an MRI image processing pipeline that can address both afine
and non-rigid registration is critical, as both types of deformations may be
occuring in real MRI data scenarios. Unlike image classification,
explainability is not commonly addressed in image registration deep learning
(DL) methods, as it is challenging to interpet model-data behaviours against
transformation fields. To properly address this, we incorporate Grad-CAM-based
explainability frameworks in each major component of our unsupervised
multi-modal and multi-organ image registration DL methodology. We previously
demonstrated that we were able to reach superior performance (against the
current standard Syn method). In this work, we show that our DL model becomes
fully explainable, setting the framework to generalise our approach on further
medical imaging data.
- Abstract(参考訳): MRI(MRI)による臨床的決定は、複数のMRIシーケンス(モダリティとして定義される)の相補的な情報を組み合わせたものである。
MRI画像登録は、異なるモダリティ、時間点、スライスから幾何学的に「ペア」診断することを目的としている。
モダリティ内およびモダリティ間MRIの登録は、臨床MRI設定において必須の要素である。
さらに、実際のMRIデータシナリオでは、どちらの種類の変形も発生する可能性があるため、微細な登録と非厳密な登録の両方に対処できるMRI画像処理パイプラインが重要である。
画像分類とは異なり、画像登録深層学習(DL)法では、変換フィールドに対するモデルデータ動作の相互運用が難しいため、説明容易性は一般的には解決されない。
そこで我々はGrad-CAMベースの説明可能性フレームワークを,教師なしマルチモーダル・マルチオーガナイズド画像登録DL手法の各主要コンポーネントに組み込んだ。
私たちは以前、優れたパフォーマンス(現在の標準synメソッドでは)に到達できることを実証しました。
本稿では,dlモデルが十分に説明可能であることを示し,さらなる医用画像データへのアプローチを一般化する枠組みを構築した。
関連論文リスト
- Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Dual Arbitrary Scale Super-Resolution for Multi-Contrast MRI [23.50915512118989]
マルチコントラスト超解像 (SR) 再構成により, SR画像の高画質化が期待できる。
放射線技師は、固定スケールではなく任意のスケールでMR画像を拡大することに慣れている。
本稿では,Dual-ArbNetと呼ばれる,暗黙的ニューラル表現に基づくマルチコントラストMRI超解像法を提案する。
論文 参考訳(メタデータ) (2023-07-05T14:43:26Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Deep Learning based Multi-modal Computing with Feature Disentanglement
for MRI Image Synthesis [8.363448006582065]
本稿では,MRI合成のための深層学習に基づくマルチモーダル計算モデルを提案する。
提案手法は,各入力モダリティを,共有情報と特定の情報を持つモダリティ固有空間で分割する。
テストフェーズにおける目標モダリティの特定情報の欠如に対処するために、局所適応融合(laf)モジュールを採用してモダリティライクな擬似ターゲットを生成する。
論文 参考訳(メタデータ) (2021-05-06T17:22:22Z) - Patch-based field-of-view matching in multi-modal images for
electroporation-based ablations [0.6285581681015912]
マルチモーダルイメージングセンサーは、現在、介入治療作業フローの異なるステップに関与している。
この情報を統合するには、取得した画像間の観測された解剖の正確な空間的アライメントに依存する。
本稿では, ボクセルパッチを用いた地域登録手法が, ボクセルワイドアプローチと「グローバルシフト」アプローチとの間に優れた構造的妥協をもたらすことを示す。
論文 参考訳(メタデータ) (2020-11-09T11:27:45Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。