論文の概要: RFR-WWANet: Weighted Window Attention-Based Recovery Feature Resolution
Network for Unsupervised Image Registration
- arxiv url: http://arxiv.org/abs/2305.04236v1
- Date: Sun, 7 May 2023 09:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:50:39.138094
- Title: RFR-WWANet: Weighted Window Attention-Based Recovery Feature Resolution
Network for Unsupervised Image Registration
- Title(参考訳): RFR-WWANet:教師なし画像登録のための重み付きウィンドウアテンションに基づく特徴回復ネットワーク
- Authors: Mingrui Ma, Tao Wang, Lei Song, Weijie Wang, Guixia Liu
- Abstract要約: スウィントランスは、その計算効率と長距離モデリング能力のために、医用画像解析に注目されている。
本研究では, 高精度な空間情報に変換器が貢献できるRFRNet(Recovery Feature Resolution Network)を提案する。
ウィンドウ間のグローバルなインタラクションを自動構築するWWA(Weighted Window Attention)を提案する。
- 参考スコア(独自算出の注目度): 7.446209993071451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Swin transformer has recently attracted attention in medical image
analysis due to its computational efficiency and long-range modeling
capability, which enables the establishment of more distant relationships
between corresponding voxels. However, transformer-based models split images
into tokens, which results in transformers that can only model and output
coarse-grained spatial information representations. To address this issue, we
propose Recovery Feature Resolution Network (RFRNet), which enables the
transformer to contribute with fine-grained spatial information and rich
semantic correspondences. Furthermore, shifted window partitioning operations
are inflexible, indicating that they cannot perceive the semantic information
over uncertain distances and automatically bridge the global connections
between windows. Therefore, we present a Weighted Window Attention (WWA) to
automatically build global interactions between windows after the regular and
cyclic shifted window partitioning operations for Swin transformer blocks. The
proposed unsupervised deformable image registration model, named RFR-WWANet,
senses the long-range correlations, thereby facilitating meaningful semantic
relevance of anatomical structures. Qualitative and quantitative results show
that RFR-WWANet achieves significant performance improvements over baseline
methods. Ablation experiments demonstrate the effectiveness of the RFRNet and
WWA designs.
- Abstract(参考訳): swinトランスフォーマは、計算効率と長距離モデリング能力により、最近医療画像解析に注目を集めており、対応するボクセル間のより遠い関係を確立することができる。
しかし、トランスフォーマーベースのモデルは画像をトークンに分割し、その結果、粗い空間情報表現をモデル化して出力できるトランスフォーマーとなる。
この問題に対処するために、トランスフォーマーが細粒度空間情報やリッチな意味対応に貢献できるRFRNet(Recovery Feature Resolution Network)を提案する。
さらに、シフトしたウィンドウ分割操作は柔軟性がなく、不確実な距離で意味情報を認識できないことを示し、ウィンドウ間のグローバル接続を自動的にブリッジする。
そこで本研究では,Swinトランスフォーマーブロックの周期的および周期的シフトウィンドウパーティショニング操作後に,ウィンドウ間のグローバルなインタラクションを自動的に構築するWeighted Window Attention (WWA)を提案する。
RFR-WWANetと呼ばれる非教師なしの変形可能な画像登録モデルは、長距離相関を感知し、解剖学的構造の意味的関連を容易にする。
定性的および定量的な結果から,RFR-WWANetはベースライン法よりも大幅な性能向上を実現している。
アブレーション実験はRFRNetとWWAの設計の有効性を示す。
関連論文リスト
- IPT-V2: Efficient Image Processing Transformer using Hierarchical Attentions [26.09373405194564]
我々は,IPTV2と呼ばれる階層的な注意を払って,効率的な画像処理トランスフォーマアーキテクチャを提案する。
我々は、局所的およびグローバルな受容領域における適切なトークン相互作用を得るために、焦点コンテキスト自己注意(FCSA)とグローバルグリッド自己注意(GGSA)を採用する。
提案した IPT-V2 は,様々な画像処理タスクにおいて,デノナイズ,デブロアリング,デコライニングを網羅し,従来の手法よりも性能と計算の複雑さのトレードオフを得る。
論文 参考訳(メタデータ) (2024-03-31T10:01:20Z) - CT-MVSNet: Efficient Multi-View Stereo with Cross-scale Transformer [8.962657021133925]
クロススケールトランス(CT)プロセスは、追加計算なしで異なる段階の表現を特徴付ける。
複数のスケールで異なる対話型アテンションの組み合わせを利用する適応型マッチング認識変換器(AMT)を導入する。
また、より細かなコストボリューム構成に大まかにグローバルな意味情報を埋め込む2機能ガイドアグリゲーション(DFGA)も提案する。
論文 参考訳(メタデータ) (2023-12-14T01:33:18Z) - Deformable Cross-Attention Transformer for Medical Image Registration [11.498623409184225]
本稿では, 変形可能なウィンドウを用いて, 窓面の注意力を計算する機構を提案する。
提案モデルは,マルチモーダル,モノモーダル,アトラスから患者への登録作業において広範囲に評価された。
論文 参考訳(メタデータ) (2023-03-10T19:22:01Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - XCiT: Cross-Covariance Image Transformers [73.33400159139708]
本稿では,トークンではなく機能チャネルをまたいで機能する自己注意の「伝達」バージョンを提案する。
その結果、XCAはトークン数に線形複雑さを持ち、高解像度画像の効率的な処理を可能にする。
論文 参考訳(メタデータ) (2021-06-17T17:33:35Z) - Rethinking Global Context in Crowd Counting [70.54184500538338]
純粋な変換器は、重なり合う画像パッチからグローバル情報で特徴を抽出するために用いられる。
分類によってインスピレーションを得て、入力シーケンスにコンテキストトークンを追加し、画像パッチに対応するトークンと情報交換を容易にする。
論文 参考訳(メタデータ) (2021-05-23T12:44:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。