論文の概要: ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint
Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and
Self-Attention Fusion
- arxiv url: http://arxiv.org/abs/2208.02642v1
- Date: Thu, 4 Aug 2022 13:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:10:25.391302
- Title: ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint
Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and
Self-Attention Fusion
- Title(参考訳): ACSGRegNet: クロス・セルフ・アテンション・フュージョンによる腰椎CTの教師なし結合アフィンと異型登録のためのディープラーニングベースのフレームワーク
- Authors: Xiaoru Gao and GuoYan Zheng
- Abstract要約: 本研究では,医用画像登録のためのエンドツーエンドの深層学習フレームワークを提案する。
ACSGRegNetは、画像間特徴対応を確立するクロスアテンションモジュールと、画像内解剖学的構造を認識する自己アテンションモジュールを統合する。
我々の手法は平均Dice 0.963 と平均距離誤差 0.321mm を達成し,SOTA (State-of-the-art) よりも優れている。
- 参考スコア(独自算出の注目度): 4.068962439293273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Registration plays an important role in medical image analysis. Deep
learning-based methods have been studied for medical image registration, which
leverage convolutional neural networks (CNNs) for efficiently regressing a
dense deformation field from a pair of images. However, CNNs are limited in its
ability to extract semantically meaningful intra- and inter-image spatial
correspondences, which are of importance for accurate image registration. This
study proposes a novel end-to-end deep learning-based framework for
unsupervised affine and diffeomorphic deformable registration, referred as
ACSGRegNet, which integrates a cross-attention module for establishing
inter-image feature correspondences and a self-attention module for intra-image
anatomical structures aware. Both attention modules are built on transformer
encoders. The output from each attention module is respectively fed to a
decoder to generate a velocity field. We further introduce a gated fusion
module to fuse both velocity fields. The fused velocity field is then
integrated to a dense deformation field. Extensive experiments are conducted on
lumbar spine CT images. Once the model is trained, pairs of unseen lumbar
vertebrae can be registered in one shot. Evaluated on 450 pairs of vertebral CT
data, our method achieved an average Dice of 0.963 and an average distance
error of 0.321mm, which are better than the state-of-the-art (SOTA).
- Abstract(参考訳): 登録は医療画像解析において重要な役割を果たす。
深層学習に基づく医用画像登録法は、畳み込みニューラルネットワーク(CNN)を利用して、一対の画像から高密度な変形場を効率的に回帰する。
しかし、cnnは、正確な画像登録に重要である意味的に意味のある画像内空間対応を抽出する能力に制限がある。
本研究では、画像間特徴対応を確立するためのクロスアテンションモジュールと、画像内解剖構造を意識する自己アテンションモジュールを統合した、教師なしアフィンおよび微分型デフォルム登録のための新しいエンドツーエンドディープラーニングベースのフレームワークACSGRegNetを提案する。
どちらのアテンションモジュールもトランスフォーマーエンコーダ上に構築されている。
各注目モジュールからの出力はそれぞれデコーダに供給され、速度場を生成する。
さらに、両方の速度場を融合させるゲート融合モジュールを導入する。
そして、融合速度場を高密度変形場に統合する。
腰部CT像に対する広範囲な実験を行った。
モデルが訓練されると、見えない腰椎のペアを1枚のショットに登録することができる。
450対の椎体ctデータを用いて評価し,平均 dice 0.963 と平均距離誤差 0.321mm を達成し,sof-the-art (sota) よりも良好な結果を得た。
関連論文リスト
- BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Anatomy-aware and acquisition-agnostic joint registration with
SynthMorph [6.455994689025795]
アフィン画像の登録は医療画像解析の基盤となる。
ほとんどのアフィン法は解剖学とは無関係であり、アルゴリズムが画像の全ての構造を考慮すれば、登録は不正確なものになる。
われわれはこれらの欠点にSynthMorphを用いて対処する。これは脳画像の結合アフィン変形性登録のための使いやすいDLツールである。
論文 参考訳(メタデータ) (2023-01-26T18:59:33Z) - Morphology-based non-rigid registration of coronary computed tomography
and intravascular images through virtual catheter path optimization [0.5525871666098097]
血管内画像とCCTA画像の厳密なマッチングと非厳密なマッチングのための半自動セグメンテーションに基づくフレームワークを提案する。
以上の結果から,我々の非剛性登録は,光分岐アライメントにおける他の共存手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-12-30T21:48:32Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Dual-Branch Squeeze-Fusion-Excitation Module for Cross-Modality
Registration of Cardiac SPECT and CT [8.366154384108464]
心筋SPECTとCT由来のu-mapを登録するためのDuSFE (Dual-Branch Squeeze-Fusion-Excitation) モジュールを提案する。
DuSFEは、複数のモダリティからの知識を融合させ、各モダリティに対するチャネルワイドと空間的特徴の両方を再検討する。
論文 参考訳(メタデータ) (2022-06-10T01:44:06Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。