論文の概要: ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint
Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and
Self-Attention Fusion
- arxiv url: http://arxiv.org/abs/2208.02642v1
- Date: Thu, 4 Aug 2022 13:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:10:25.391302
- Title: ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint
Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and
Self-Attention Fusion
- Title(参考訳): ACSGRegNet: クロス・セルフ・アテンション・フュージョンによる腰椎CTの教師なし結合アフィンと異型登録のためのディープラーニングベースのフレームワーク
- Authors: Xiaoru Gao and GuoYan Zheng
- Abstract要約: 本研究では,医用画像登録のためのエンドツーエンドの深層学習フレームワークを提案する。
ACSGRegNetは、画像間特徴対応を確立するクロスアテンションモジュールと、画像内解剖学的構造を認識する自己アテンションモジュールを統合する。
我々の手法は平均Dice 0.963 と平均距離誤差 0.321mm を達成し,SOTA (State-of-the-art) よりも優れている。
- 参考スコア(独自算出の注目度): 4.068962439293273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Registration plays an important role in medical image analysis. Deep
learning-based methods have been studied for medical image registration, which
leverage convolutional neural networks (CNNs) for efficiently regressing a
dense deformation field from a pair of images. However, CNNs are limited in its
ability to extract semantically meaningful intra- and inter-image spatial
correspondences, which are of importance for accurate image registration. This
study proposes a novel end-to-end deep learning-based framework for
unsupervised affine and diffeomorphic deformable registration, referred as
ACSGRegNet, which integrates a cross-attention module for establishing
inter-image feature correspondences and a self-attention module for intra-image
anatomical structures aware. Both attention modules are built on transformer
encoders. The output from each attention module is respectively fed to a
decoder to generate a velocity field. We further introduce a gated fusion
module to fuse both velocity fields. The fused velocity field is then
integrated to a dense deformation field. Extensive experiments are conducted on
lumbar spine CT images. Once the model is trained, pairs of unseen lumbar
vertebrae can be registered in one shot. Evaluated on 450 pairs of vertebral CT
data, our method achieved an average Dice of 0.963 and an average distance
error of 0.321mm, which are better than the state-of-the-art (SOTA).
- Abstract(参考訳): 登録は医療画像解析において重要な役割を果たす。
深層学習に基づく医用画像登録法は、畳み込みニューラルネットワーク(CNN)を利用して、一対の画像から高密度な変形場を効率的に回帰する。
しかし、cnnは、正確な画像登録に重要である意味的に意味のある画像内空間対応を抽出する能力に制限がある。
本研究では、画像間特徴対応を確立するためのクロスアテンションモジュールと、画像内解剖構造を意識する自己アテンションモジュールを統合した、教師なしアフィンおよび微分型デフォルム登録のための新しいエンドツーエンドディープラーニングベースのフレームワークACSGRegNetを提案する。
どちらのアテンションモジュールもトランスフォーマーエンコーダ上に構築されている。
各注目モジュールからの出力はそれぞれデコーダに供給され、速度場を生成する。
さらに、両方の速度場を融合させるゲート融合モジュールを導入する。
そして、融合速度場を高密度変形場に統合する。
腰部CT像に対する広範囲な実験を行った。
モデルが訓練されると、見えない腰椎のペアを1枚のショットに登録することができる。
450対の椎体ctデータを用いて評価し,平均 dice 0.963 と平均距離誤差 0.321mm を達成し,sof-the-art (sota) よりも良好な結果を得た。
関連論文リスト
- LDM-Morph: Latent diffusion model guided deformable image registration [2.8195553455247317]
医用画像登録のための非教師あり変形可能な登録アルゴリズム LDM-Morph を提案する。
潜在拡散モデル(LDM)から抽出したLDM-Morph統合機能を用いて意味情報を強化する。
4つのパブリックな2次元心臓画像データセットに対する大規模な実験により、提案されたLDM-Morphフレームワークは、既存の最先端CNNとTransformersベースの登録方法よりも優れていた。
論文 参考訳(メタデータ) (2024-11-23T03:04:36Z) - Dual-Attention Frequency Fusion at Multi-Scale for Joint Segmentation and Deformable Medical Image Registration [2.6089354079273512]
二重注意周波数融合(DAFF-Net)に基づくマルチタスク学習フレームワークを提案する。
DAFF-Netは、単一ステップ推定において、セグメンテーションマスクと密度変形場を同時に達成する。
3つのパブリックな3次元脳磁気共鳴画像(MRI)データセットの実験により、提案されたDAFF-Netとその教師なし変種は、最先端の登録方法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-29T11:11:04Z) - BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Anatomy-aware and acquisition-agnostic joint registration with SynthMorph [6.017634371712142]
アフィン画像登録は、医用画像解析の基盤となっている。
ディープラーニング(DL)メソッドは、画像対を出力変換にマッピングする関数を学ぶ。
ほとんどのアフィン法は、ユーザが調整したい解剖学に依存しない。つまり、アルゴリズムが画像のすべての構造を考慮すれば、登録は不正確なものになる。
われわれはこれらの欠点をSynthMorphで解決する。これは高速で対称で、微分型で使い易いDLツールで、任意の脳画像の関節アフィン変形性登録を行う。
論文 参考訳(メタデータ) (2023-01-26T18:59:33Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。