論文の概要: BATFormer: Towards Boundary-Aware Lightweight Transformer for Efficient
Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2206.14409v3
- Date: Wed, 19 Apr 2023 02:43:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 18:09:22.044657
- Title: BATFormer: Towards Boundary-Aware Lightweight Transformer for Efficient
Medical Image Segmentation
- Title(参考訳): batformer: 効率的な医用画像分割のためのバウンダリアウェア軽量トランスフォーマ
- Authors: Xian Lin, Li Yu, Kwang-Ting Cheng, and Zengqiang Yan
- Abstract要約: 本稿では,計算複雑性の低い大規模グローバルインタラクションを構築するための境界対応軽量トランス (BATFormer) を提案する。
BATFormerは、平均、右心室、心筋、左心室それぞれ92.84%、91.97%、90.26%、96.30%の成績を収めている。
- 参考スコア(独自算出の注目度): 26.405243756778606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: Transformers, born to remedy the inadequate receptive fields of
CNNs, have drawn explosive attention recently. However, the daunting
computational complexity of global representation learning, together with rigid
window partitioning, hinders their deployment in medical image segmentation.
This work aims to address the above two issues in transformers for better
medical image segmentation. Methods: We propose a boundary-aware lightweight
transformer (BATFormer) that can build cross-scale global interaction with
lower computational complexity and generate windows flexibly under the guidance
of entropy. Specifically, to fully explore the benefits of transformers in
long-range dependency establishment, a cross-scale global transformer (CGT)
module is introduced to jointly utilize multiple small-scale feature maps for
richer global features with lower computational complexity. Given the
importance of shape modeling in medical image segmentation, a boundary-aware
local transformer (BLT) module is constructed. Different from rigid window
partitioning in vanilla transformers which would produce boundary distortion,
BLT adopts an adaptive window partitioning scheme under the guidance of entropy
for both computational complexity reduction and shape preservation. Results:
BATFormer achieves the best performance in Dice of 92.84%, 91.97%, 90.26%, and
96.30% for the average, right ventricle, myocardium, and left ventricle
respectively on the ACDC dataset and the best performance in Dice, IoU, and ACC
of 90.76%, 84.64%, and 96.76% respectively on the ISIC 2018 dataset. More
importantly, BATFormer requires the least amount of model parameters and the
lowest computational complexity compared to the state-of-the-art approaches.
Conclusion and Significance: Our results demonstrate the necessity of
developing customized transformers for efficient and better medical image
segmentation.
- Abstract(参考訳): 目的:CNNの不適切な受容領域を治療するために生まれたトランスフォーマーは、最近爆発的な注目を集めている。
しかし、グローバル表現学習の計算の複雑さは、厳格なウィンドウ分割とともに、医療画像のセグメンテーションにおける配置を妨げる。
この研究は、トランスフォーマーの2つの問題に対処し、医用画像のセグメンテーションを改善することを目的としている。
方法: エントロピーの指導の下で, 計算複雑性の低い大規模グローバルインタラクションを構築し, ウィンドウを柔軟に生成できる境界対応軽量トランスフォーマー (BATFormer) を提案する。
具体的には、長距離依存性確立におけるトランスフォーマーの利点をフルに探求するため、クロススケールグローバルトランスフォーマー(CGT)モジュールを導入し、計算複雑性の低いよりリッチなグローバル機能に複数の小規模機能マップを併用する。
医用画像セグメンテーションにおける形状モデリングの重要性から、境界対応ローカルトランス (BLT) モジュールが構築されている。
境界歪みを生じるバニラ変圧器の剛性窓分割とは異なり、BLTはエントロピーの指導の下で適応窓分割方式を採用し、計算複雑性の低減と形状の保存を行う。
結果: batformer は平均,右室,心筋,左室で92.84%,91.97%,90.26%,96.30%,icc 2018 データセットでは90.76%,84.64%,96.76% で,adcdc データセットでは,それぞれ,右室,心筋,左室でそれぞれ96.30%,dice,iou,accでは90.76%,84.64%,accでは96.76%であった。
さらに重要なのは、BATFormerは、最先端のアプローチと比較して最小のモデルパラメータと最小の計算複雑性を必要とすることだ。
結論と意義: より効率的な医用画像分割のためのカスタマイズトランスフォーマーの開発の必要性を示す。
関連論文リスト
- TransUKAN:Computing-Efficient Hybrid KAN-Transformer for Enhanced Medical Image Segmentation [5.280523424712006]
U-Netは現在、医療画像セグメンテーションの最も広く使われているアーキテクチャである。
我々は、メモリ使用量と計算負荷を減らすためにkanを改善した。
このアプローチは、非線形関係をキャプチャするモデルの能力を高める。
論文 参考訳(メタデータ) (2024-09-23T02:52:49Z) - SegStitch: Multidimensional Transformer for Robust and Efficient Medical Imaging Segmentation [15.811141677039224]
最先端の手法、特にトランスフォーマーを利用した手法は、3Dセマンティックセグメンテーションにおいて顕著に採用されている。
しかし、局所的な特徴や計算の複雑さが無視されているため、普通の視覚変換器は困難に直面する。
本稿では,SegStitchを提案する。SegStitchは変圧器とODEブロックを結合した革新的なアーキテクチャである。
論文 参考訳(メタデータ) (2024-08-01T12:05:02Z) - DilateFormer: Multi-Scale Dilated Transformer for Visual Recognition [62.95223898214866]
我々は,視覚変換器の有効性を探究し,参加する受容領域の計算複雑性とサイズとのトレードオフを追求する。
ピラミッドアーキテクチャを用いて,MSDAブロックを低レベルに積み重ねたマルチスケールDilated Transformer (DilateFormer) と,高レベルにグローバルなマルチヘッド自己保持ブロックを構築する。
実験の結果,DilateFormerは様々な視覚タスクで最先端のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-02-03T14:59:31Z) - Optimizing Vision Transformers for Medical Image Segmentation and
Few-Shot Domain Adaptation [11.690799827071606]
我々はCS-Unet(Convolutional Swin-Unet)トランスフォーマーブロックを提案し、パッチ埋め込み、プロジェクション、フィードフォワードネットワーク、サンプリングおよびスキップ接続に関連する設定を最適化する。
CS-Unetはゼロからトレーニングすることができ、各機能プロセスフェーズにおける畳み込みの優位性を継承する。
実験によると、CS-Unetは事前トレーニングなしで、パラメータが少ない2つの医療用CTおよびMRIデータセットに対して、最先端の他のデータセットを大きなマージンで上回っている。
論文 参考訳(メタデータ) (2022-10-14T19:18:52Z) - The Lighter The Better: Rethinking Transformers in Medical Image
Segmentation Through Adaptive Pruning [26.405243756778606]
本稿では,医療画像セグメンテーションのための変換器に適応型プルーニングを適用し,軽量ネットワークAPFormerを提案する。
私たちの知る限りでは、医療画像解析タスクのためのトランスフォーマープルーニングに関する最初の研究である。
我々は,アダプティブプルーニングが他のハイブリッド/トランスフォーマー方式の性能向上のためのプラグイン-n-playモジュールとして機能することを,アブレーション研究を通じて証明した。
論文 参考訳(メタデータ) (2022-06-29T05:49:36Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。