論文の概要: C2FTrans: Coarse-to-Fine Transformers for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2206.14409v1
- Date: Wed, 29 Jun 2022 05:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 03:06:12.851435
- Title: C2FTrans: Coarse-to-Fine Transformers for Medical Image Segmentation
- Title(参考訳): C2FTrans:医療画像分割用粗大変換器
- Authors: Xian Lin, Zengqiang Yan, Li Yu, and Kwang-Ting Cheng
- Abstract要約: C2FTransは、医療画像のセグメンテーションを粗大な手順として定式化する、新しいマルチスケールアーキテクチャである。
CGTは、3つの小さな機能マップにまたがってグローバルな依存性を構築し、計算コストを許容できるようなリッチなグローバルなセマンティックな特徴を得る。
BLTは、エントロピーの誘導の下で境界付近のウィンドウを適応的に生成することで、計算複雑性を低減することで、中距離依存を捕捉する。
- 参考スコア(独自算出の注目度): 26.405243756778606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNN), the most prevailing architecture for
deep-learning based medical image analysis, are still functionally limited by
their intrinsic inductive biases and inadequate receptive fields. Transformer,
born to address this issue, has drawn explosive attention in natural language
processing and computer vision due to its remarkable ability in capturing
long-range dependency. However, most recent transformer-based methods for
medical image segmentation directly apply vanilla transformers as an auxiliary
module in CNN-based methods, resulting in severe detail loss due to the rigid
patch partitioning scheme in transformers. To address this problem, we propose
C2FTrans, a novel multi-scale architecture that formulates medical image
segmentation as a coarse-to-fine procedure. C2FTrans mainly consists of a
cross-scale global transformer (CGT) which addresses local contextual
similarity in CNN and a boundary-aware local transformer (BLT) which overcomes
boundary uncertainty brought by rigid patch partitioning in transformers.
Specifically, CGT builds global dependency across three different small-scale
feature maps to obtain rich global semantic features with an acceptable
computational cost, while BLT captures mid-range dependency by adaptively
generating windows around boundaries under the guidance of entropy to reduce
computational complexity and minimize detail loss based on large-scale feature
maps. Extensive experimental results on three public datasets demonstrate the
superior performance of C2FTrans against state-of-the-art CNN-based and
transformer-based methods with fewer parameters and lower FLOPs. We believe the
design of C2FTrans would further inspire future work on developing efficient
and lightweight transformers for medical image segmentation. The source code of
this paper is publicly available at https://github.com/xianlin7/C2FTrans.
- Abstract(参考訳): 深層学習に基づく医用画像解析の最も一般的なアーキテクチャである畳み込みニューラルネットワーク(cnn)は、内在的な帰納バイアスと不適切な受容領域によって機能的に制限されている。
この問題に対処するために生まれたtransformerは、自然言語処理とコンピュータビジョンに爆発的な注目を集めている。
しかし,近年の医用画像分割手法では,バニラトランスをcnn方式の補助モジュールとして直接適用しており,トランスの剛性パッチ分割方式により細部構造が著しく損なわれた。
この問題に対処するために,医療画像分割を粗大な手順として定式化する新しいマルチスケールアーキテクチャであるC2FTransを提案する。
C2FTransは主に、CNNにおける局所的文脈類似性に対処する大規模グローバルトランス (CGT) と、トランスにおける厳密なパッチ分割による境界不確かさを克服する境界対応ローカルトランス (BLT) で構成される。
具体的には、cgtは3つの異なる小規模機能マップにまたがるグローバル依存性を構築し、許容可能な計算コストでリッチなグローバルセマンティクス機能を得る一方で、bltはエントロピーの指導の下で境界付近の窓を適応的に生成し、計算複雑性を低減し、大規模機能マップに基づく詳細損失を最小化する。
3つの公開データセットの大規模な実験結果から、パラメータが少なく、FLOPが低い最先端CNNおよびトランスフォーマーベースの手法に対して、C2FTransの優れた性能を示す。
我々は、C2FTransの設計により、医療画像セグメンテーションのための効率的で軽量なトランスフォーマーの開発がさらに促進されると考えている。
本論文のソースコードはhttps://github.com/xianlin7/C2FTransで公開されている。
関連論文リスト
- TransUKAN:Computing-Efficient Hybrid KAN-Transformer for Enhanced Medical Image Segmentation [5.280523424712006]
U-Netは現在、医療画像セグメンテーションの最も広く使われているアーキテクチャである。
我々は、メモリ使用量と計算負荷を減らすためにkanを改善した。
このアプローチは、非線形関係をキャプチャするモデルの能力を高める。
論文 参考訳(メタデータ) (2024-09-23T02:52:49Z) - SegStitch: Multidimensional Transformer for Robust and Efficient Medical Imaging Segmentation [15.811141677039224]
最先端の手法、特にトランスフォーマーを利用した手法は、3Dセマンティックセグメンテーションにおいて顕著に採用されている。
しかし、局所的な特徴や計算の複雑さが無視されているため、普通の視覚変換器は困難に直面する。
本稿では,SegStitchを提案する。SegStitchは変圧器とODEブロックを結合した革新的なアーキテクチャである。
論文 参考訳(メタデータ) (2024-08-01T12:05:02Z) - DilateFormer: Multi-Scale Dilated Transformer for Visual Recognition [62.95223898214866]
我々は,視覚変換器の有効性を探究し,参加する受容領域の計算複雑性とサイズとのトレードオフを追求する。
ピラミッドアーキテクチャを用いて,MSDAブロックを低レベルに積み重ねたマルチスケールDilated Transformer (DilateFormer) と,高レベルにグローバルなマルチヘッド自己保持ブロックを構築する。
実験の結果,DilateFormerは様々な視覚タスクで最先端のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-02-03T14:59:31Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - The Lighter The Better: Rethinking Transformers in Medical Image
Segmentation Through Adaptive Pruning [26.405243756778606]
本稿では,医療画像セグメンテーションのための変換器に適応型プルーニングを適用し,軽量ネットワークAPFormerを提案する。
私たちの知る限りでは、医療画像解析タスクのためのトランスフォーマープルーニングに関する最初の研究である。
我々は,アダプティブプルーニングが他のハイブリッド/トランスフォーマー方式の性能向上のためのプラグイン-n-playモジュールとして機能することを,アブレーション研究を通じて証明した。
論文 参考訳(メタデータ) (2022-06-29T05:49:36Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。