論文の概要: MAD: Modality Agnostic Distance Measure for Image Registration
- arxiv url: http://arxiv.org/abs/2309.02875v1
- Date: Wed, 6 Sep 2023 09:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 15:55:33.902087
- Title: MAD: Modality Agnostic Distance Measure for Image Registration
- Title(参考訳): MAD:画像登録のためのModality Agnostic Distance Measuremente
- Authors: Vasiliki Sideri-Lampretsa, Veronika A. Zimmer, Huaqi Qiu, Georgios
Kaissis, and Daniel Rueckert
- Abstract要約: マルチモーダル画像登録は多くの医療応用において重要な前処理ステップである。
画像の固有な幾何学をランダムな畳み込みを用いて学習する手法である、Modality Agnostic Distance (MAD)を提案する。
我々は、MADがマルチモーダル画像のアフィニシャルな登録を成功させるだけでなく、従来の計測値よりも大きなキャプチャ範囲を持つことを実証した。
- 参考スコア(独自算出の注目度): 14.558286801723293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal image registration is a crucial pre-processing step in many
medical applications. However, it is a challenging task due to the complex
intensity relationships between different imaging modalities, which can result
in large discrepancy in image appearance. The success of multi-modal image
registration, whether it is conventional or learning based, is predicated upon
the choice of an appropriate distance (or similarity) measure. Particularly,
deep learning registration algorithms lack in accuracy or even fail completely
when attempting to register data from an "unseen" modality. In this work, we
present Modality Agnostic Distance (MAD), a deep image distance}] measure that
utilises random convolutions to learn the inherent geometry of the images while
being robust to large appearance changes. Random convolutions are
geometry-preserving modules which we use to simulate an infinite number of
synthetic modalities alleviating the need for aligned paired data during
training. We can therefore train MAD on a mono-modal dataset and successfully
apply it to a multi-modal dataset. We demonstrate that not only can MAD
affinely register multi-modal images successfully, but it has also a larger
capture range than traditional measures such as Mutual Information and
Normalised Gradient Fields.
- Abstract(参考訳): マルチモーダル画像登録は多くの医療応用において重要な前処理ステップである。
しかし、異なる画像モード間の複雑な強度関係のため、画像の外観に大きな違いをもたらす可能性があるため、これは難しい課題である。
従来型であれ学習型であれ、多モード画像登録の成功は、適切な距離(または類似性)尺度の選択によって予測される。
特に、ディープラーニング登録アルゴリズムは、"見えない"モダリティからデータを登録しようとすると、正確さに欠けたり、完全に失敗する。
本研究では,不規則畳み込みを利用して画像の固有形状を学習し,大きな外観変化に頑健なモーダリティ非依存距離(mad,deep image distance})を提案する。
ランダム畳み込み(Random convolutions)は、トレーニング中に整列されたデータの必要性を緩和する無限個の合成モダリティをシミュレートするために使用する幾何学保存モジュールである。
したがって、モノモーダルデータセット上でMADをトレーニングし、マルチモーダルデータセットに適用することができる。
本稿では,マルチモーダル画像の登録を成功させるだけでなく,相互情報や正規化勾配場といった従来の手法よりも広いキャプチャ範囲を持つことを示す。
関連論文リスト
- MIFNet: Learning Modality-Invariant Features for Generalizable Multimodal Image Matching [54.740256498985026]
キーポイントの検出と記述方法は、しばしばマルチモーダルデータと競合する。
マルチモーダル画像マッチングにおけるキーポイント記述に対するモダリティ不変特徴量を計算するためのモダリティ不変特徴量学習ネットワーク(MIFNet)を提案する。
論文 参考訳(メタデータ) (2025-01-20T06:56:30Z) - MatchAnything: Universal Cross-Modality Image Matching with Large-Scale Pre-Training [62.843316348659165]
ディープラーニングに基づく画像マッチングアルゴリズムは、人間を劇的に上回り、大量の対応を素早く正確に見つける。
本稿では, 画像間の基本構造を認識し, 一致させるためのモデル学習のために, 合成モード間学習信号を利用する大規模事前学習フレームワークを提案する。
我々の重要な発見は、我々のフレームワークで訓練されたマッチングモデルが、目に見えない8つのクロスモダリティ登録タスクにまたがる顕著な一般化性を達成することである。
論文 参考訳(メタデータ) (2025-01-13T18:37:36Z) - MINIMA: Modality Invariant Image Matching [52.505282811925454]
複数のクロスモーダルケースを対象とした統合画像マッチングフレームワークであるMINIMAを提案する。
生成モデルを用いて、安価だがリッチなRGBのみのマッチングデータからモダリティをスケールアップする。
MD-synでは、任意の高度なマッチングパイプラインをランダムに選択したモダリティペアで直接訓練して、クロスモーダル能力を得ることができる。
論文 参考訳(メタデータ) (2024-12-27T02:39:50Z) - Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - MsMorph: An Unsupervised pyramid learning network for brain image registration [4.000367245594772]
MsMorphは、イメージペアを登録する手動プロセスの模倣を目的とした、イメージ登録フレームワークである。
異なるスケールで意味情報をデコードし、予測された変形場に対して連続的に合成する。
提案手法は,画像ペアとその近傍の異なる領域に着目し,手動による登録手法をシミュレートする。
論文 参考訳(メタデータ) (2024-10-23T19:20:57Z) - Large Language Models for Multimodal Deformable Image Registration [50.91473745610945]
そこで本研究では,様々な医用画像からの深い特徴の整合を図るために,新しい粗いMDIRフレームワークLLM-Morphを提案する。
具体的には、まずCNNエンコーダを用いて、クロスモーダル画像ペアから深い視覚的特徴を抽出し、次に、最初のアダプタを使ってこれらのトークンを調整する。
第3に、トークンのアライメントのために、他の4つのアダプタを使用して、LLM符号化トークンをマルチスケールの視覚特徴に変換し、マルチスケールの変形場を生成し、粗いMDIRタスクを容易にする。
論文 参考訳(メタデータ) (2024-08-20T09:58:30Z) - Learning Multimodal Data Augmentation in Feature Space [65.54623807628536]
LeMDAは、機能空間におけるマルチモーダルデータを共同で拡張することを自動的に学習する、使い易い方法である。
我々はLeMDAがマルチモーダルディープラーニングアーキテクチャの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:39:36Z) - Unsupervised Multi-Modal Medical Image Registration via
Discriminator-Free Image-to-Image Translation [4.43142018105102]
本稿では,複数モーダル登録問題をモノモーダル画像に変換するための,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
提案手法では,登録ネットワークのトレーニングを容易にするために,識別不要な翻訳ネットワークと,オブジェクトの形状を保たせるためのパッチワイドなコントラスト損失が組み込まれている。
論文 参考訳(メタデータ) (2022-04-28T17:18:21Z) - Multi-modal unsupervised brain image registration using edge maps [7.49320945341034]
本稿では,マルチモーダル画像登録手法を提案する。
この背景にある直感は、強い勾配の像の位置が組織の遷移を意味すると仮定されている。
我々は3つの異なる損失関数を用いて、異なる被験者のマルチモーダル(T1wからT2w)磁気共鳴(MR)脳画像を登録する状況において、我々のアプローチを評価する。
論文 参考訳(メタデータ) (2022-02-09T15:50:14Z) - Deep Group-wise Variational Diffeomorphic Image Registration [3.0022455491411653]
本稿では,複数の画像の同時登録を可能にするために,現在の学習ベース画像登録を拡張することを提案する。
本稿では,複数の画像の粘性測地線平均への登録と,利用可能な画像のいずれかを固定画像として使用可能な登録を両立できる汎用的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-01T07:37:28Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。