論文の概要: EMCAD: Efficient Multi-scale Convolutional Attention Decoding for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2405.06880v1
- Date: Sat, 11 May 2024 02:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:32:15.761197
- Title: EMCAD: Efficient Multi-scale Convolutional Attention Decoding for Medical Image Segmentation
- Title(参考訳): EMCAD : 医用画像セグメンテーションのためのマルチスケール・コンボリューション・アテンション・デコーディング
- Authors: Md Mostafijur Rahman, Mustafa Munir, Radu Marculescu,
- Abstract要約: EMCADは,新しいマルチスケール・コンボリューション・アテンション・デコーダである。
グループと深度的な畳み込みを用いることで、EMCADは非常に効率的でスケールが良い。
評価の結果, EMCAD は 79.4% と 80.3% の #Params と #FLOPs をそれぞれ削減した。
- 参考スコア(独自算出の注目度): 6.4399181389092
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An efficient and effective decoding mechanism is crucial in medical image segmentation, especially in scenarios with limited computational resources. However, these decoding mechanisms usually come with high computational costs. To address this concern, we introduce EMCAD, a new efficient multi-scale convolutional attention decoder, designed to optimize both performance and computational efficiency. EMCAD leverages a unique multi-scale depth-wise convolution block, significantly enhancing feature maps through multi-scale convolutions. EMCAD also employs channel, spatial, and grouped (large-kernel) gated attention mechanisms, which are highly effective at capturing intricate spatial relationships while focusing on salient regions. By employing group and depth-wise convolution, EMCAD is very efficient and scales well (e.g., only 1.91M parameters and 0.381G FLOPs are needed when using a standard encoder). Our rigorous evaluations across 12 datasets that belong to six medical image segmentation tasks reveal that EMCAD achieves state-of-the-art (SOTA) performance with 79.4% and 80.3% reduction in #Params and #FLOPs, respectively. Moreover, EMCAD's adaptability to different encoders and versatility across segmentation tasks further establish EMCAD as a promising tool, advancing the field towards more efficient and accurate medical image analysis. Our implementation is available at https://github.com/SLDGroup/EMCAD.
- Abstract(参考訳): 医用画像のセグメンテーション、特に限られた計算資源を持つシナリオにおいて、効率的かつ効果的な復号化機構が不可欠である。
しかしながら、これらの復号化機構は通常計算コストが高い。
この問題に対処するために,性能と計算効率の両方を最適化する新しいマルチスケール・コンボリューション・アテンション・デコーダであるEMCADを導入する。
EMCADは、ユニークなマルチスケールの奥行きの畳み込みブロックを活用し、マルチスケールの畳み込みを通して特徴マップを大幅に強化する。
EMCADはまた、チャネル、空間、グループ化された(大きなカーネル)ゲートアテンション機構も採用しており、これは有能な領域に着目しながら複雑な空間関係を捉えるのに非常に効果的である。
グループと深さの面での畳み込みにより、EMCADは非常に効率的でスケールが良い(例えば、標準エンコーダを使用する際には、1.91Mパラメータと0.381G FLOPが必要である)。
6つの医用画像セグメンテーションタスクに属する12のデータセットを対象とした厳密な評価の結果、EMCADは、それぞれ#Paramsと#FLOPsの79.4%と80.3%の削減で、最先端(SOTA)のパフォーマンスを達成することが明らかとなった。
さらに,異なるエンコーダへのEMCADの適応性とセグメンテーションタスク間の汎用性は,EMCADを将来性のあるツールとして確立し,より効率的かつ正確な医用画像解析へと発展させる。
私たちの実装はhttps://github.com/SLDGroup/EMCADで公開されています。
関連論文リスト
- QTSeg: A Query Token-Based Dual-Mix Attention Framework with Multi-Level Feature Distribution for Medical Image Segmentation [13.359001333361272]
医用画像のセグメンテーションは、正確な診断と自動診断プロセスの実現を医療専門家に支援する上で重要な役割を担っている。
従来の畳み込みニューラルネットワーク(CNN)は、長い範囲の依存関係をキャプチャするのに苦労することが多い。
近年の取り組みはCNNとトランスフォーマーを組み合わせて性能と効率のバランスをとることに重点を置いているが、既存の手法は計算コストを低く抑えながら高いセグメンテーション精度を達成するという課題に直面している。
ローカルおよびグローバルな情報を効果的に統合する医療画像セグメンテーションのための新しいアーキテクチャであるQTSegを提案する。
論文 参考訳(メタデータ) (2024-12-23T03:22:44Z) - Light-weight Retinal Layer Segmentation with Global Reasoning [14.558920359236572]
OCT画像に適用可能な網膜層セグメンテーションのためのLightReSegを提案する。
提案手法は,現在の最先端技術であるTransUnetと比較して,セグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2024-04-25T05:42:41Z) - Real-Time Image Segmentation via Hybrid Convolutional-Transformer Architecture Search [49.81353382211113]
マルチヘッド自己認識を高分解能表現CNNに効率的に組み込むという課題に対処する。
本稿では,高解像度機能の利点をフル活用したマルチターゲットマルチブランチ・スーパーネット手法を提案する。
本稿では,Hybrid Convolutional-Transformer Architecture Search (HyCTAS)法を用いて,軽量畳み込み層とメモリ効率のよい自己保持層を最適に組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T15:47:54Z) - BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image Segmentation [11.986549780782724]
医用画像の正確な分割作業のために,BRAU-Net++ というハイブリッドで効果的な CNN-Transformer ネットワークを提案する。
具体的には、BRAU-Net++は、U字型エンコーダデコーダ構造を設計するために、コアビルディングブロックとしてバイレベルルーティングアテンションを使用する。
提案手法は,そのベースラインであるBRAU-Netを含む,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-01-01T10:49:09Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D Medical Image Segmentation [34.865695471451886]
E2ENet(Efficient to Efficient Network)と呼ばれる3次元医用画像分割モデルを提案する。
パラメトリックと計算効率の2つの設計が組み込まれている。
さまざまなリソース制約に対して、正確性と効率性のトレードオフを一貫して達成します。
論文 参考訳(メタデータ) (2023-12-07T22:13:37Z) - Learning Multiscale Consistency for Self-supervised Electron Microscopy
Instance Segmentation [48.267001230607306]
本稿では,EMボリュームのマルチスケール一貫性を高める事前学習フレームワークを提案する。
当社のアプローチでは,強力なデータ拡張と弱いデータ拡張を統合することで,Siameseネットワークアーキテクチャを活用している。
効果的にボクセルと機能の一貫性をキャプチャし、EM分析のための転送可能な表現を学習する。
論文 参考訳(メタデータ) (2023-08-19T05:49:13Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。