論文の概要: Multi-modal unsupervised brain image registration using edge maps
- arxiv url: http://arxiv.org/abs/2202.04647v1
- Date: Wed, 9 Feb 2022 15:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 12:40:45.810852
- Title: Multi-modal unsupervised brain image registration using edge maps
- Title(参考訳): エッジマップを用いたマルチモーダル脳画像登録
- Authors: Vasiliki Sideri-Lampretsa, Georgios Kaissis, Daniel Rueckert
- Abstract要約: 本稿では,マルチモーダル画像登録手法を提案する。
この背景にある直感は、強い勾配の像の位置が組織の遷移を意味すると仮定されている。
我々は3つの異なる損失関数を用いて、異なる被験者のマルチモーダル(T1wからT2w)磁気共鳴(MR)脳画像を登録する状況において、我々のアプローチを評価する。
- 参考スコア(独自算出の注目度): 7.49320945341034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffeomorphic deformable multi-modal image registration is a challenging task
which aims to bring images acquired by different modalities to the same
coordinate space and at the same time to preserve the topology and the
invertibility of the transformation. Recent research has focused on leveraging
deep learning approaches for this task as these have been shown to achieve
competitive registration accuracy while being computationally more efficient
than traditional iterative registration methods. In this work, we propose a
simple yet effective unsupervised deep learning-based {\em multi-modal} image
registration approach that benefits from auxiliary information coming from the
gradient magnitude of the image, i.e. the image edges, during the training. The
intuition behind this is that image locations with a strong gradient are
assumed to denote a transition of tissues, which are locations of high
information value able to act as a geometry constraint. The task is similar to
using segmentation maps to drive the training, but the edge maps are easier and
faster to acquire and do not require annotations. We evaluate our approach in
the context of registering multi-modal (T1w to T2w) magnetic resonance (MR)
brain images of different subjects using three different loss functions that
are said to assist multi-modal registration, showing that in all cases the
auxiliary information leads to better results without compromising the runtime.
- Abstract(参考訳): Diffomorphic deformable multi-modal image registrationは、異なるモダリティによって取得された画像を同じ座標空間に持ち込むと同時に、変換のトポロジーと可逆性を維持することを目的とした課題である。
最近の研究は、従来の反復登録法よりも計算効率が優れながら、競争力のある登録精度を達成することが示されているため、このタスクのためのディープラーニングアプローチの活用に重点を置いている。
本研究では,画像の勾配等級から得られる補助情報,すなわち訓練中の画像エッジから得られる補助情報を利用する,単純で効果的な教師なし深層学習に基づくマルチモーダル画像登録手法を提案する。
この背景にある直観は、強い勾配を持つ画像位置は、幾何学的制約として機能できる高い情報値の場所である組織の遷移を意味すると仮定されている。
タスクはセグメンテーションマップを使用してトレーニングを実行するのと似ているが、エッジマップはより簡単に取得でき、アノテーションを必要としない。
我々は,マルチモーダル(T1wからT2w)磁気共鳴(MR)脳画像の多モーダル登録を支援する3つの損失関数を用いて,異なる被験者の脳画像の登録状況において,我々のアプローチを評価する。
関連論文リスト
- MAD: Modality Agnostic Distance Measure for Image Registration [14.558286801723293]
マルチモーダル画像登録は多くの医療応用において重要な前処理ステップである。
画像の固有な幾何学をランダムな畳み込みを用いて学習する手法である、Modality Agnostic Distance (MAD)を提案する。
我々は、MADがマルチモーダル画像のアフィニシャルな登録を成功させるだけでなく、従来の計測値よりも大きなキャプチャ範囲を持つことを実証した。
論文 参考訳(メタデータ) (2023-09-06T09:59:58Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Unsupervised Multi-Modal Medical Image Registration via
Discriminator-Free Image-to-Image Translation [4.43142018105102]
本稿では,複数モーダル登録問題をモノモーダル画像に変換するための,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
提案手法では,登録ネットワークのトレーニングを容易にするために,識別不要な翻訳ネットワークと,オブジェクトの形状を保たせるためのパッチワイドなコントラスト損失が組み込まれている。
論文 参考訳(メタデータ) (2022-04-28T17:18:21Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Recurrent Multi-view Alignment Network for Unsupervised Surface
Registration [79.72086524370819]
非厳格な登録をエンドツーエンドで学習することは、本質的に高い自由度とラベル付きトレーニングデータの欠如により困難である。
我々は、いくつかの剛性変換のポイントワイドな組み合わせで、非剛性変換を表現することを提案する。
また,投影された多視点2次元深度画像上での3次元形状の類似度を計測する可微分損失関数も導入する。
論文 参考訳(メタデータ) (2020-11-24T14:22:42Z) - Unsupervised Multimodal Image Registration with Adaptative Gradient
Guidance [23.461130560414805]
教師なし学習に基づく手法は、変形可能な画像登録における精度と効率よりも有望な性能を示す。
既存の手法の予測変形場は、登録済み画像対に完全に依存する。
両モデルから推定される変形場を利用する新しい多モード登録フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T05:47:20Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Unsupervised Multi-Modal Image Registration via Geometry Preserving
Image-to-Image Translation [43.060971647266236]
我々は2つの入力モダリティに基づいて画像と画像の変換ネットワークを訓練する。
この学習された翻訳により、シンプルで信頼性の高いモノモダリティメトリクスを使用して、登録ネットワークをトレーニングすることができる。
最先端のマルチモーダル手法と比較して, 提案手法は教師なしであり, 整列したモーダルのペアは必要とせず, 任意のモーダルのペアに適応できる。
論文 参考訳(メタデータ) (2020-03-18T07:21:09Z) - Deform-GAN:An Unsupervised Learning Model for Deformable Registration [4.030402376540977]
本稿では,教師なし学習を利用した3次元医用画像の非剛性登録手法を提案する。
提案した勾配損失は、大きな変形のためのシーケンスやモーダルにわたって頑健である。
トレーニング中は、接地や手動のラベリングは必要とされない。
論文 参考訳(メタデータ) (2020-02-26T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。