論文の概要: RFR-WWANet: Weighted Window Attention-Based Recovery Feature Resolution
Network for Unsupervised Image Registration
- arxiv url: http://arxiv.org/abs/2305.04236v2
- Date: Mon, 22 May 2023 02:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 02:54:07.083757
- Title: RFR-WWANet: Weighted Window Attention-Based Recovery Feature Resolution
Network for Unsupervised Image Registration
- Title(参考訳): RFR-WWANet:教師なし画像登録のための重み付きウィンドウアテンションに基づく特徴回復ネットワーク
- Authors: Mingrui Ma, Tao Wang, Lei Song, Weijie Wang, Guixia Liu
- Abstract要約: Swin変換器は、その計算効率と長距離モデリング能力のために、医用画像解析に注目を集めている。
トランスフォーマーに基づく登録モデルは、複数のボクセルを単一のセマンティックトークンに結合する。
このマージプロセスは変換器をモデルに制限し、粗い粒度の空間情報を生成する。
本研究では, 高精度な空間情報提供を可能にするRFRNet(Recovery Feature Resolution Network)を提案する。
- 参考スコア(独自算出の注目度): 7.446209993071451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Swin transformer has recently attracted attention in medical image
analysis due to its computational efficiency and long-range modeling
capability. Owing to these properties, the Swin Transformer is suitable for
establishing more distant relationships between corresponding voxels in
different positions in complex abdominal image registration tasks. However, the
registration models based on transformers combine multiple voxels into a single
semantic token. This merging process limits the transformers to model and
generate coarse-grained spatial information. To address this issue, we propose
Recovery Feature Resolution Network (RFRNet), which allows the transformer to
contribute fine-grained spatial information and rich semantic correspondences
to higher resolution levels. Furthermore, shifted window partitioning
operations are inflexible, indicating that they cannot perceive the semantic
information over uncertain distances and automatically bridge the global
connections between windows. Therefore, we present a Weighted Window Attention
(WWA) to build global interactions between windows automatically. It is
implemented after the regular and cyclic shift window partitioning operations
within the Swin transformer block. The proposed unsupervised deformable image
registration model, named RFR-WWANet, detects the long-range correlations, and
facilitates meaningful semantic relevance of anatomical structures. Qualitative
and quantitative results show that RFR-WWANet achieves significant improvements
over the current state-of-the-art methods. Ablation experiments demonstrate the
effectiveness of the RFRNet and WWA designs. Our code is available at
\url{https://github.com/MingR-Ma/RFR-WWANet}.
- Abstract(参考訳): Swin変換器は計算効率と長距離モデリング能力のために最近,医療画像解析に注目を集めている。
これらの特性により、複雑な腹部画像登録作業において、対応するボクセル間のより遠い関係を確立するのに、スウィントランスは適している。
しかし、トランスフォーマーに基づく登録モデルは、複数のボクセルを単一のセマンティックトークンに結合する。
このマージプロセスはトランスフォーマーをモデル化し、粗い粒度の空間情報を生成する。
そこで,本稿では,トランスフォーマがより詳細な空間情報と高精細な意味対応を高分解能レベルに寄与できるリカバリ機能解決ネットワーク(rfrnet)を提案する。
さらに、シフトしたウィンドウ分割操作は柔軟性がなく、不確実な距離で意味情報を認識できないことを示し、ウィンドウ間のグローバル接続を自動的にブリッジする。
そこで我々は,ウィンドウ間のグローバルなインタラクションを自動的に構築するためのWWA(Weighted Window Attention)を提案する。
swinトランスフォーマーブロック内の定期的および周期的なシフトウィンドウ分割操作後に実装される。
RFR-WWANetと呼ばれる非教師付き変形可能な画像登録モデルは、長距離相関を検出し、解剖学的構造の意味的関連性を促進する。
定性的かつ定量的な結果は、RFR-WWANetが現在の最先端手法よりも大幅に改善されていることを示している。
アブレーション実験はRFRNetとWWAの設計の有効性を示す。
私たちのコードは \url{https://github.com/MingR-Ma/RFR-WWANet} で利用可能です。
関連論文リスト
- IPT-V2: Efficient Image Processing Transformer using Hierarchical Attentions [26.09373405194564]
我々は,IPTV2と呼ばれる階層的な注意を払って,効率的な画像処理トランスフォーマアーキテクチャを提案する。
我々は、局所的およびグローバルな受容領域における適切なトークン相互作用を得るために、焦点コンテキスト自己注意(FCSA)とグローバルグリッド自己注意(GGSA)を採用する。
提案した IPT-V2 は,様々な画像処理タスクにおいて,デノナイズ,デブロアリング,デコライニングを網羅し,従来の手法よりも性能と計算の複雑さのトレードオフを得る。
論文 参考訳(メタデータ) (2024-03-31T10:01:20Z) - CT-MVSNet: Efficient Multi-View Stereo with Cross-scale Transformer [8.962657021133925]
クロススケールトランス(CT)プロセスは、追加計算なしで異なる段階の表現を特徴付ける。
複数のスケールで異なる対話型アテンションの組み合わせを利用する適応型マッチング認識変換器(AMT)を導入する。
また、より細かなコストボリューム構成に大まかにグローバルな意味情報を埋め込む2機能ガイドアグリゲーション(DFGA)も提案する。
論文 参考訳(メタデータ) (2023-12-14T01:33:18Z) - Deformable Cross-Attention Transformer for Medical Image Registration [11.498623409184225]
本稿では, 変形可能なウィンドウを用いて, 窓面の注意力を計算する機構を提案する。
提案モデルは,マルチモーダル,モノモーダル,アトラスから患者への登録作業において広範囲に評価された。
論文 参考訳(メタデータ) (2023-03-10T19:22:01Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - XCiT: Cross-Covariance Image Transformers [73.33400159139708]
本稿では,トークンではなく機能チャネルをまたいで機能する自己注意の「伝達」バージョンを提案する。
その結果、XCAはトークン数に線形複雑さを持ち、高解像度画像の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2021-06-17T17:33:35Z) - Rethinking Global Context in Crowd Counting [70.54184500538338]
純粋な変換器は、重なり合う画像パッチからグローバル情報で特徴を抽出するために用いられる。
分類によってインスピレーションを得て、入力シーケンスにコンテキストトークンを追加し、画像パッチに対応するトークンと情報交換を容易にする。
論文 参考訳(メタデータ) (2021-05-23T12:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。