論文の概要: XMorpher: Full Transformer for Deformable Medical Image Registration via
Cross Attention
- arxiv url: http://arxiv.org/abs/2206.07349v1
- Date: Wed, 15 Jun 2022 08:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 04:21:27.541162
- Title: XMorpher: Full Transformer for Deformable Medical Image Registration via
Cross Attention
- Title(参考訳): XMorpher: クロスアテンションによる変形可能な医用画像登録用フルトランス
- Authors: Jiacheng Shi, Yuting He, Youyong Kong, Jean-Louis Coatrieux, Huazhong
Shu, Guanyu Yang, Shuo Li
- Abstract要約: 深層学習に基づく変形性医用画像登録(DMIR)において有効なバックボーンネットワークが重要である
我々は、DMIRにおける有効な対応する特徴表現のために、新しいバックボーンネットワークであるXMorpherを前進させる。
我々のXMorpherは、DSCのVoxelmorph 2.8%の改善を提供します。
- 参考スコア(独自算出の注目度): 13.154895674207474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An effective backbone network is important to deep learning-based Deformable
Medical Image Registration (DMIR), because it extracts and matches the features
between two images to discover the mutual correspondence for fine registration.
However, the existing deep networks focus on single image situation and are
limited in registration task which is performed on paired images. Therefore, we
advance a novel backbone network, XMorpher, for the effective corresponding
feature representation in DMIR. 1) It proposes a novel full transformer
architecture including dual parallel feature extraction networks which exchange
information through cross attention, thus discovering multi-level semantic
correspondence while extracting respective features gradually for final
effective registration. 2) It advances the Cross Attention Transformer (CAT)
blocks to establish the attention mechanism between images which is able to
find the correspondence automatically and prompts the features to fuse
efficiently in the network. 3) It constrains the attention computation between
base windows and searching windows with different sizes, and thus focuses on
the local transformation of deformable registration and enhances the computing
efficiency at the same time. Without any bells and whistles, our XMorpher gives
Voxelmorph 2.8% improvement on DSC , demonstrating its effective representation
of the features from the paired images in DMIR. We believe that our XMorpher
has great application potential in more paired medical images. Our XMorpher is
open on https://github.com/Solemoon/XMorpher
- Abstract(参考訳): 深層学習に基づく変形可能な医用画像登録(DMIR)では,2つの画像の特徴を抽出し,一致させて相互の相互対応を見出すため,有効なバックボーンネットワークが重要である。
しかし、既存のディープネットワークは単一の画像状況に焦点を当てており、ペア画像上で実行される登録作業に制限がある。
そこで,本研究では,DMIRにおける有効な特徴表現のために,新しいバックボーンネットワークであるXMorpherを推し進める。
1) 横断的注意を通して情報交換を行う2重並列特徴抽出ネットワークを含む新しい完全トランスアーキテクチャを提案する。
2)CAT(Cross Attention Transformer)ブロックを前進させ,自動的に対応を見つけ出すことのできる画像間の注意機構を確立し,ネットワーク内で効率的に融合するように促す。
3) 異なる大きさの窓と検索窓の間の注意計算を制約し, 変形可能な登録の局所的な変換に着目し, 同時に計算効率を向上させる。
我々のxmorpherはdscに対してvoxelmorph 2.8%の改善を与え、dmirのペア画像からの効果的な特徴の表現を示している。
われわれのXMorpherは、よりペア化された医療画像に大いに応用できると考えている。
私たちのXMorpherはhttps://github.com/Solemoon/XMorpherで公開されています
関連論文リスト
- LDM-Morph: Latent diffusion model guided deformable image registration [2.8195553455247317]
医用画像登録のための非教師あり変形可能な登録アルゴリズム LDM-Morph を提案する。
潜在拡散モデル(LDM)から抽出したLDM-Morph統合機能を用いて意味情報を強化する。
4つのパブリックな2次元心臓画像データセットに対する大規模な実験により、提案されたLDM-Morphフレームワークは、既存の最先端CNNとTransformersベースの登録方法よりも優れていた。
論文 参考訳(メタデータ) (2024-11-23T03:04:36Z) - Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - Recurrence With Correlation Network for Medical Image Registration [66.63200823918429]
本稿では,医療画像登録ネットワークであるRecurrence with correlation Network (RWCNet)について述べる。
これらの特徴により、2つの画像登録データセットにおける医用画像登録精度が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-05T02:41:46Z) - Anatomy-aware and acquisition-agnostic joint registration with SynthMorph [6.017634371712142]
アフィン画像登録は、医用画像解析の基盤となっている。
ディープラーニング(DL)メソッドは、画像対を出力変換にマッピングする関数を学ぶ。
ほとんどのアフィン法は、ユーザが調整したい解剖学に依存しない。つまり、アルゴリズムが画像のすべての構造を考慮すれば、登録は不正確なものになる。
われわれはこれらの欠点をSynthMorphで解決する。これは高速で対称で、微分型で使い易いDLツールで、任意の脳画像の関節アフィン変形性登録を行う。
論文 参考訳(メタデータ) (2023-01-26T18:59:33Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint
Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and
Self-Attention Fusion [4.068962439293273]
本研究では,医用画像登録のためのエンドツーエンドの深層学習フレームワークを提案する。
ACSGRegNetは、画像間特徴対応を確立するクロスアテンションモジュールと、画像内解剖学的構造を認識する自己アテンションモジュールを統合する。
我々の手法は平均Dice 0.963 と平均距離誤差 0.321mm を達成し,SOTA (State-of-the-art) よりも優れている。
論文 参考訳(メタデータ) (2022-08-04T13:13:48Z) - Unsupervised Misaligned Infrared and Visible Image Fusion via
Cross-Modality Image Generation and Registration [59.02821429555375]
我々は、教師なし不整合赤外線と可視画像融合のための頑健な相互モダリティ生成登録パラダイムを提案する。
登録された赤外線画像と可視画像とを融合させるため,IFM (Feature Interaction Fusion Module) を提案する。
論文 参考訳(メタデータ) (2022-05-24T07:51:57Z) - Cross-modal Attention for MRI and Ultrasound Volume Registration [10.725645523967904]
我々は,クロスモーダル画像登録のための自己認識機構を開発した。
提案するクロスモーダルアテンションブロックは,各特徴量と対応する特徴量とを効果的にマッピングする。
実験の結果,クロスモーダルアテンションブロックを組み込んだCNNネットワークが,CNNネットワークの10倍の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2021-07-09T17:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。