論文の概要: Symmetric Transformer-based Network for Unsupervised Image Registration
- arxiv url: http://arxiv.org/abs/2204.13575v1
- Date: Thu, 28 Apr 2022 15:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:51:34.783102
- Title: Symmetric Transformer-based Network for Unsupervised Image Registration
- Title(参考訳): 非教師なし画像登録のための対称トランスベースネットワーク
- Authors: Mingrui Ma, Lei Song, Yuanbo Xu, Guixia Liu
- Abstract要約: 本稿では,従来のトランスフォーマーのパラメータを低減する,畳み込みに基づく効率的なマルチヘッド自己アテンション(CEMSA)ブロックを提案する。
提案したCEMSAに基づいて,新しいSymmetric Transformer-based model(SymTrans)を提案する。
実験結果から,提案手法は画像登録における最先端性能を実現することが示された。
- 参考スコア(独自算出の注目度): 4.258536928793156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image registration is a fundamental and critical task in medical
image analysis. With the rapid development of deep learning, convolutional
neural networks (CNN) have dominated the medical image registration field. Due
to the disadvantage of the local receptive field of CNN, some recent
registration methods have focused on using transformers for non-local
registration. However, the standard Transformer has a vast number of parameters
and high computational complexity, which causes Transformer can only be applied
at the bottom of the registration models. As a result, only coarse information
is available at the lowest resolution, limiting the contribution of Transformer
in their models. To address these challenges, we propose a convolution-based
efficient multi-head self-attention (CEMSA) block, which reduces the parameters
of the traditional Transformer and captures local spatial context information
for reducing semantic ambiguity in the attention mechanism. Based on the
proposed CEMSA, we present a novel Symmetric Transformer-based model
(SymTrans). SymTrans employs the Transformer blocks in the encoder and the
decoder respectively to model the long-range spatial cross-image relevance. We
apply SymTrans to the displacement field and diffeomorphic registration.
Experimental results show that our proposed method achieves state-of-the-art
performance in image registration. Our code is publicly available at
\url{https://github.com/MingR-Ma/SymTrans}.
- Abstract(参考訳): 医用画像登録は医用画像解析における基本的かつ重要な課題である。
ディープラーニングの急速な発展に伴い、畳み込みニューラルネットワーク(CNN)が医療画像登録分野を支配している。
CNNの局所受容領域の欠点により、最近の登録手法では非局所的な登録にトランスフォーマーを使うことに焦点を当てている。
しかし、標準トランスフォーマーは、非常に多くのパラメータと高い計算複雑性を有しており、登録モデルの下部でのみトランスフォーマーを適用することができる。
その結果、粗い情報のみが最低解像度で利用可能となり、モデルへのトランスフォーマーの寄与が制限される。
これらの課題に対処するために,従来のトランスフォーマーのパラメータを削減し,局所空間コンテキスト情報をキャプチャして,アテンション機構のセマンティックなあいまいさを低減する,畳み込みに基づく効率的なマルチヘッド自己認識ブロックを提案する。
提案したCEMSAに基づいて,新しいSymmetric Transformerベースモデル(SymTrans)を提案する。
SymTransはエンコーダのTransformerブロックとデコーダを使って、長距離空間のクロスイメージ関係をモデル化する。
我々は symtrans を変位場と diffeomorphic registration に適用する。
実験の結果,提案手法は画像登録における最先端性能を実現する。
私たちのコードは、 \url{https://github.com/MingR-Ma/SymTrans}で公開されています。
関連論文リスト
- A lightweight residual network for unsupervised deformable image registration [2.7309692684728617]
本稿では, 並列拡張畳み込みブロックを組み込んだ残差U-Netを提案する。
本手法は患者間およびアトラスに基づくデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-14T07:20:49Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - ModeT: Learning Deformable Image Registration via Motion Decomposition
Transformer [7.629385629884155]
本稿では,複数のモーダルを明示的にモデル化する新しい動作分解変換器 (ModeT) を提案する。
提案手法は,現状の登録ネットワークやトランスフォーマーよりも優れている。
論文 参考訳(メタデータ) (2023-06-09T06:00:05Z) - ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation [14.485482467748113]
ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-10-13T14:59:23Z) - TransNorm: Transformer Provides a Strong Spatial Normalization Mechanism
for a Deep Segmentation Model [4.320393382724066]
畳み込みニューラルネットワーク(CNN)は、医療画像処理時代の主流技術である。
本稿では,Transformerモジュールをエンコーダとスキップ接続の両方に統合する,新しいディープセグメンテーションフレームワークであるTrans-Normを提案する。
論文 参考訳(メタデータ) (2022-07-27T09:54:10Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Transformer-Based Deep Image Matching for Generalizable Person
Re-identification [114.56752624945142]
画像マッチングと距離学習にトランスフォーマーを適用する可能性について検討する。
視覚変換器 (ViT) とデコーダ付きバニラ変換器 (Vanilla Transformer) はイメージ・ツー・イメージ・アテンションの欠如により画像マッチングに適していないことがわかった。
そこで本研究では,クエリキーの類似性のみを保ちながら,ソフトマックス重み付けによる注意の完全な実装を省略する,単純化されたデコーダを提案する。
論文 参考訳(メタデータ) (2021-05-30T05:38:33Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。