論文の概要: U-Net vs Transformer: Is U-Net Outdated in Medical Image Registration?
- arxiv url: http://arxiv.org/abs/2208.04939v1
- Date: Sun, 7 Aug 2022 20:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 13:13:39.861295
- Title: U-Net vs Transformer: Is U-Net Outdated in Medical Image Registration?
- Title(参考訳): U-Net vs. トランスフォーマー:U-Netは医用画像登録で時代遅れか?
- Authors: Xi Jia, Joseph Bartlett, Tianyang Zhang, Wenqi Lu, Zhaowen Qiu,
Jinming Duan
- Abstract要約: 5層畳み込みU-Netの受容場は、長距離依存を必要とせずに正確な変形を捉えるのに十分である。
バニラU-Netの性能は、最先端のトランスフォーマーベースネットワークとすでに同等であることを示す。
- 参考スコア(独自算出の注目度): 12.83322496000366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their extreme long-range modeling capability, vision transformer-based
networks have become increasingly popular in deformable image registration. We
believe, however, that the receptive field of a 5-layer convolutional U-Net is
sufficient to capture accurate deformations without needing long-range
dependencies. The purpose of this study is therefore to investigate whether
U-Net-based methods are outdated compared to modern transformer-based
approaches when applied to medical image registration. For this, we propose a
large kernel U-Net (LKU-Net) by embedding a parallel convolutional block to a
vanilla U-Net in order to enhance the effective receptive field. On the public
3D IXI brain dataset for atlas-based registration, we show that the performance
of the vanilla U-Net is already comparable with that of state-of-the-art
transformer-based networks (such as TransMorph), and that the proposed LKU-Net
outperforms TransMorph by using only 1.12% of its parameters and 10.8% of its
mult-adds operations. We further evaluate LKU-Net on a MICCAI Learn2Reg 2021
challenge dataset for inter-subject registration, our LKU-Net also outperforms
TransMorph on this dataset and ranks first on the public leaderboard as of the
submission of this work. With only modest modifications to the vanilla U-Net,
we show that U-Net can outperform transformer-based architectures on
inter-subject and atlas-based 3D medical image registration. Code is available
at https://github.com/xi-jia/LKU-Net.
- Abstract(参考訳): その極端な長距離モデリング能力により、視覚トランスフォーマーベースのネットワークは変形可能な画像登録でますます人気を集めている。
しかし、5層畳み込みU-Netの受容場は、長距離依存を必要とせずに正確な変形を捉えるのに十分であると考える。
そこで本研究の目的は,u-netベースの手法が,医療画像登録に応用された現代のトランスフォーマー方式に比べて時代遅れであるかどうかを検討することである。
そこで本研究では, 並列畳み込みブロックをバニラU-Netに埋め込んで, 有効受容場を強化することで, 大規模カーネルU-Net(LKU-Net)を提案する。
一般の3d ixibrain dataset for atlas-based registrationにおいて、vanilla u-netの性能はtransmorphのような最先端のトランスフォーマーネットワークと既に同等であり、提案されているlku-netはtransmorphのパラメータの1.12%とmult-addsの10.8%しか使っていない。
我々は、MICCAI Learn2Reg 2021チャレンジデータセット上で、さらにLKU-Netを評価し、このデータセット上でTransMorphを上回り、本研究の提出時点では、第1位である。
バニラU-Netをわずかに修正するだけで、U-Netはオブジェクト間およびアトラスベースの3次元医用画像登録においてトランスフォーマーベースのアーキテクチャより優れていることを示す。
コードはhttps://github.com/xi-jia/LKU-Netで入手できる。
関連論文リスト
- nnU-Net Revisited: A Call for Rigorous Validation in 3D Medical Image Segmentation [1.5243612944631728]
我々は、最近の多くの主張が、一般的な検証の欠陥について精査したときには、守られていないことを実証する。
現状のパフォーマンスのレシピは,1) ResNet や ConvNeXt など CNN ベースの U-Net モデル,2) nnU-Net フレームワーク,3) 現代的なハードウェアリソースへのモデルスケーリングである。
論文 参考訳(メタデータ) (2024-04-15T08:19:08Z) - Fourier-Net+: Leveraging Band-Limited Representation for Efficient 3D
Medical Image Registration [62.53130123397081]
U-Netスタイルのネットワークは、高密度変位場を予測するために、教師なし画像登録に一般的に利用される。
まず,コストのかかるU-Netスタイルの拡張パスをパラメータフリーモデル駆動デコーダに置き換えるFourier-Netを提案する。
次に、Fourier-Net+を導入し、さらに画像の帯域制限空間表現を入力とし、U-Netスタイルのネットワークの収縮経路における畳み込み層の数を減少させる。
論文 参考訳(メタデータ) (2023-07-06T13:57:12Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - 3D UX-Net: A Large Kernel Volumetric ConvNet Modernizing Hierarchical
Transformer for Medical Image Segmentation [5.635173603669784]
本研究では,高機能なボリュームセグメンテーションのために,ConvNetモジュールを用いた階層型トランスフォーマを適応させる3D UX-Netという軽量なボリュームトリビュータを提案する。
具体的には、Swin Transformerにインスパイアされた大規模なグローバルな受容フィールドを実現するために、大きなカーネルサイズ(例:7.7times7$から始まる)でボリュームの奥行きの畳み込みを再検討する。
論文 参考訳(メタデータ) (2022-09-29T19:54:13Z) - Implicit U-Net for volumetric medical image segmentation [0.6294759639481189]
Implicit U-Netは、教師付きイメージセグメンテーションタスクに効率的なImplicit Representationパラダイムを適用する。
我々の暗黙のU-Netは、同等のU-Netよりも40%少ないパラメータを持つ。
等価な完全畳み込みU-Netと比較すると、Implicit U-Netは約30%の推論とトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2022-06-30T12:00:40Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - U-Net Using Stacked Dilated Convolutions for Medical Image Segmentation [6.415984481829187]
SDU-Netは、エンコーダとデコーダ操作を変更するバニラU-Netのアーキテクチャを採用する。
各エンコーダ/デコーダ操作に2つの標準畳み込みを組み込んだバニラU-Netとは異なり、SDU-Netは1つの標準畳み込みと複数の拡張畳み込みを使用する。
論文 参考訳(メタデータ) (2020-04-07T15:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。