論文の概要: Unsupervised Multi-Modal Medical Image Registration via
Discriminator-Free Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2204.13656v1
- Date: Thu, 28 Apr 2022 17:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:48:49.971339
- Title: Unsupervised Multi-Modal Medical Image Registration via
Discriminator-Free Image-to-Image Translation
- Title(参考訳): 判別器自由画像変換による教師なしマルチモーダル医用画像登録
- Authors: Zekang Chen, Jia Wei and Rui Li
- Abstract要約: 本稿では,複数モーダル登録問題をモノモーダル画像に変換するための,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
提案手法では,登録ネットワークのトレーニングを容易にするために,識別不要な翻訳ネットワークと,オブジェクトの形状を保たせるためのパッチワイドなコントラスト損失が組み込まれている。
- 参考スコア(独自算出の注目度): 4.43142018105102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In clinical practice, well-aligned multi-modal images, such as Magnetic
Resonance (MR) and Computed Tomography (CT), together can provide complementary
information for image-guided therapies. Multi-modal image registration is
essential for the accurate alignment of these multi-modal images. However, it
remains a very challenging task due to complicated and unknown spatial
correspondence between different modalities. In this paper, we propose a novel
translation-based unsupervised deformable image registration approach to
convert the multi-modal registration problem to a mono-modal one. Specifically,
our approach incorporates a discriminator-free translation network to
facilitate the training of the registration network and a patchwise contrastive
loss to encourage the translation network to preserve object shapes.
Furthermore, we propose to replace an adversarial loss, that is widely used in
previous multi-modal image registration methods, with a pixel loss in order to
integrate the output of translation into the target modality. This leads to an
unsupervised method requiring no ground-truth deformation or pairs of aligned
images for training. We evaluate four variants of our approach on the public
Learn2Reg 2021 datasets \cite{hering2021learn2reg}. The experimental results
demonstrate that the proposed architecture achieves state-of-the-art
performance. Our code is available at https://github.com/heyblackC/DFMIR.
- Abstract(参考訳): 臨床実践において、MR(MR)やCT(CT)などの多モード画像は、共に画像誘導療法の補完情報を提供することができる。
マルチモーダル画像の正確なアライメントにはマルチモーダル画像登録が不可欠である。
しかし、異なるモダリティ間の複雑で未知の空間対応のため、非常に難しい課題である。
本稿では,多モード登録問題をモノモーダルに変換する,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
具体的には,識別器を使わない翻訳ネットワークを組み込んで,登録ネットワークの訓練とパッチワイズコントラスト損失の軽減を図り,翻訳ネットワークの物体形状保存を促進する。
さらに,従来のマルチモーダル画像登録手法で広く用いられている対向損失を画素損失に置き換えて,翻訳の出力を目標モダリティに統合する手法を提案する。
これにより、教師なしの方法が、訓練のために地対変形や一対のアライメント画像を必要としない。
我々は,公開Learner2Reg 2021データセットに対するアプローチの4つの変種を評価する。
実験により,提案アーキテクチャが最先端性能を実現することを示す。
私たちのコードはhttps://github.com/heyblackc/dfmirで利用可能です。
関連論文リスト
- Large Language Models for Multimodal Deformable Image Registration [50.91473745610945]
そこで本研究では,様々な医用画像からの深い特徴の整合を図るために,新しい粗いMDIRフレームワークLLM-Morphを提案する。
具体的には、まずCNNエンコーダを用いて、クロスモーダル画像ペアから深い視覚的特徴を抽出し、次に、最初のアダプタを使ってこれらのトークンを調整する。
第3に、トークンのアライメントのために、他の4つのアダプタを使用して、LLM符号化トークンをマルチスケールの視覚特徴に変換し、マルチスケールの変形場を生成し、粗いMDIRタスクを容易にする。
論文 参考訳(メタデータ) (2024-08-20T09:58:30Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Multi-modal unsupervised brain image registration using edge maps [7.49320945341034]
本稿では,マルチモーダル画像登録手法を提案する。
この背景にある直感は、強い勾配の像の位置が組織の遷移を意味すると仮定されている。
我々は3つの異なる損失関数を用いて、異なる被験者のマルチモーダル(T1wからT2w)磁気共鳴(MR)脳画像を登録する状況において、我々のアプローチを評価する。
論文 参考訳(メタデータ) (2022-02-09T15:50:14Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Is Image-to-Image Translation the Panacea for Multimodal Image
Registration? A Comparative Study [4.00906288611816]
マルチモーダルバイオメディカル画像登録作業における現代i2i翻訳法の適用性に関する実証研究を行った。
4つのGAN(Generative Adrial Network)ベースの方法と1つのコントラスト表現学習方法のパフォーマンスを比較します。
その結果,I2I翻訳は,登録対象のモダリティが明確に相関している場合には有用であるが,I2I翻訳手法では明らかに異なる特性を示すモダリティの登録が不十分であることが示唆された。
論文 参考訳(メタデータ) (2021-03-30T11:28:21Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Adversarial Uni- and Multi-modal Stream Networks for Multimodal Image
Registration [20.637787406888478]
CT画像とMR画像との変形性画像登録は多くの画像誘導療法において不可欠である。
本稿では,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
本手法は2つの臨床データセットで評価され,最先端の従来法と学習法と比較して有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-06T14:44:06Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Unsupervised Multi-Modal Image Registration via Geometry Preserving
Image-to-Image Translation [43.060971647266236]
我々は2つの入力モダリティに基づいて画像と画像の変換ネットワークを訓練する。
この学習された翻訳により、シンプルで信頼性の高いモノモダリティメトリクスを使用して、登録ネットワークをトレーニングすることができる。
最先端のマルチモーダル手法と比較して, 提案手法は教師なしであり, 整列したモーダルのペアは必要とせず, 任意のモーダルのペアに適応できる。
論文 参考訳(メタデータ) (2020-03-18T07:21:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。