論文の概要: Advancing Deformable Medical Image Registration with Multi-axis Cross-covariance Attention
- arxiv url: http://arxiv.org/abs/2412.18545v1
- Date: Tue, 24 Dec 2024 16:52:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:57.309200
- Title: Advancing Deformable Medical Image Registration with Multi-axis Cross-covariance Attention
- Title(参考訳): 多軸交叉共分散注意による変形可能な医用画像の登録
- Authors: Mingyuan Meng, Michael Fulham, Lei Bi, Jinman Kim,
- Abstract要約: 変形可能な医用画像登録に最適化されたXCAベースの変圧器ブロックであるMulti-Axis XCA(MAXCA)を提案する。
MAXCAは、多軸設計により、局所的および拡張されたXCAを並列に適用することにより、高解像度画像特徴間のグローバルおよび局所的な長距離依存性をキャプチャすることができる。
- 参考スコア(独自算出の注目度): 9.062010807451388
- License:
- Abstract: Deformable image registration is a fundamental requirement for medical image analysis. Recently, transformers have been widely used in deep learning-based registration methods for their ability to capture long-range dependency via self-attention (SA). However, the high computation and memory loads of SA (growing quadratically with the spatial resolution) hinder transformers from processing subtle textural information in high-resolution image features, e.g., at the full and half image resolutions. This limits deformable registration as the high-resolution textural information is crucial for finding precise pixel-wise correspondence between subtle anatomical structures. Cross-covariance Attention (XCA), as a "transposed" version of SA that operates across feature channels, has complexity growing linearly with the spatial resolution, providing the feasibility of capturing long-range dependency among high-resolution image features. However, existing XCA-based transformers merely capture coarse global long-range dependency, which are unsuitable for deformable image registration relying primarily on fine-grained local correspondence. In this study, we propose to improve existing deep learning-based registration methods by embedding a new XCA mechanism. To this end, we design an XCA-based transformer block optimized for deformable medical image registration, named Multi-Axis XCA (MAXCA). Our MAXCA serves as a general network block that can be embedded into various registration network architectures. It can capture both global and local long-range dependency among high-resolution image features by applying regional and dilated XCA in parallel via a multi-axis design. Extensive experiments on two well-benchmarked inter-/intra-patient registration tasks with seven public medical datasets demonstrate that our MAXCA block enables state-of-the-art registration performance.
- Abstract(参考訳): 変形可能な画像登録は、医用画像解析の基本的な要件である。
近年、トランスフォーマーは、自己注意(SA)を介して長距離依存を捉えるために、ディープラーニングベースの登録手法で広く利用されている。
しかし、SAの高計算とメモリ負荷(空間分解能に比例して増大する)により、変換器は高解像度の画像特徴、例えば高解像度の画像解像度で微妙なテクスチャ情報を処理できなくなる。
この制限は、微妙な解剖学的構造の間の正確なピクセルワイド対応を見つけるために、高解像度のテクスチャ情報として変形可能な登録に不可欠である。
XCA(Cross-covariance Attention)は、特徴チャネルをまたいで動作するSAの「変換」バージョンであり、空間分解能と線形に増大する複雑さを持ち、高解像度画像特徴間の長距離依存性を捉えることが可能である。
しかし、既存のXCAベースのトランスフォーマーは、粗大な大域的長距離依存をキャプチャするだけであり、これは主にきめ細かな局所対応に依存する変形可能な画像登録には適さない。
本研究では,新しいXCA機構を組み込むことで,既存のディープラーニングベースの登録方法を改善することを提案する。
この目的のために、変形可能な医用画像登録に最適化されたXCAベースのトランスフォーマーブロック、Multi-Axis XCA(MAXCA)を設計する。
我々のMAXCAは、様々な登録ネットワークアーキテクチャに組み込むことのできる一般的なネットワークブロックとして機能する。
局所的および拡張されたXCAをマルチ軸設計により並列に適用することにより,高解像度画像特徴間の大域的および局所的長距離依存性を捉えることができる。
7つの公開医療データセットを用いた2つの患者間/患者間登録タスクに関する広範囲な実験により、MAXCAブロックが最先端の登録パフォーマンスを実現することが実証された。
関連論文リスト
- TransResNet: Integrating the Strengths of ViTs and CNNs for High Resolution Medical Image Segmentation via Feature Grafting [6.987177704136503]
医用画像領域で高解像度画像が好ましいのは、基礎となる方法の診断能力を大幅に向上させるためである。
医用画像セグメンテーションのための既存のディープラーニング技術のほとんどは、空間次元が小さい入力画像に最適化されており、高解像度画像では不十分である。
我々はTransResNetという並列処理アーキテクチャを提案し、TransformerとCNNを並列的に組み合わせ、マルチ解像度画像から特徴を独立して抽出する。
論文 参考訳(メタデータ) (2024-10-01T18:22:34Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Deformable Cross-Attention Transformer for Medical Image Registration [11.498623409184225]
本稿では, 変形可能なウィンドウを用いて, 窓面の注意力を計算する機構を提案する。
提案モデルは,マルチモーダル,モノモーダル,アトラスから患者への登録作業において広範囲に評価された。
論文 参考訳(メタデータ) (2023-03-10T19:22:01Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - TransAttUnet: Multi-level Attention-guided U-Net with Transformer for
Medical Image Segmentation [33.45471457058221]
本稿では,TransAttUnetと呼ばれるトランスフォーマーベースの医用画像セマンティックセマンティック・セマンティック・フレームワークを提案する。
特に,デコーダブロック間の複数スケールのスキップ接続を確立することで,セマンティック・スケールのアップサンプリング機能を集約する。
我々の手法は一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2021-07-12T09:17:06Z) - XCiT: Cross-Covariance Image Transformers [73.33400159139708]
本稿では,トークンではなく機能チャネルをまたいで機能する自己注意の「伝達」バージョンを提案する。
その結果、XCAはトークン数に線形複雑さを持ち、高解像度画像の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2021-06-17T17:33:35Z) - LocalTrans: A Multiscale Local Transformer Network for Cross-Resolution
Homography Estimation [52.63874513999119]
クロスレゾリューション画像アライメントは、マルチスケールギガ撮影において重要な問題である。
既存のディープ・ホモグラフィー手法は、それらの間の対応の明示的な定式化を無視し、クロスレゾリューションの課題において精度が低下する。
本稿では,マルチモーダル入力間の対応性を明確に学習するために,マルチスケール構造内に埋め込まれたローカルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:51:45Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。