論文の概要: EFCNet: Every Feature Counts for Small Medical Object Segmentation
- arxiv url: http://arxiv.org/abs/2406.18201v1
- Date: Wed, 26 Jun 2024 09:33:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 13:59:06.923015
- Title: EFCNet: Every Feature Counts for Small Medical Object Segmentation
- Title(参考訳): EFCNet:小さな医療用オブジェクトセグメンテーションのためのすべての機能
- Authors: Lingjie Kong, Qiaoling Wei, Chengming Xu, Han Chen, Yanwei Fu,
- Abstract要約: 本報告では, 臨床的意義の大きい, 非常に小さな医療対象のセグメンテーションについて検討する。
CNN、UNetのようなモデル、そして最近のトランスフォーマーは、画像セグメンテーションの大幅な進歩を示している。
医用画像における小物体分割のためのEFCNetという新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 44.26196156775273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the segmentation of very small medical objects with significant clinical value. While Convolutional Neural Networks (CNNs), particularly UNet-like models, and recent Transformers have shown substantial progress in image segmentation, our empirical findings reveal their poor performance in segmenting the small medical objects and lesions concerned in this paper. This limitation may be attributed to information loss during their encoding and decoding process. In response to this challenge, we propose a novel model named EFCNet for small object segmentation in medical images. Our model incorporates two modules: the Cross-Stage Axial Attention Module (CSAA) and the Multi-Precision Supervision Module (MPS). These modules address information loss during encoding and decoding procedures, respectively. Specifically, CSAA integrates features from all stages of the encoder to adaptively learn suitable information needed in different decoding stages, thereby reducing information loss in the encoder. On the other hand, MPS introduces a novel multi-precision supervision mechanism to the decoder. This mechanism prioritizes attention to low-resolution features in the initial stages of the decoder, mitigating information loss caused by subsequent convolution and sampling processes and enhancing the model's global perception. We evaluate our model on two benchmark medical image datasets. The results demonstrate that EFCNet significantly outperforms previous segmentation methods designed for both medical and normal images.
- Abstract(参考訳): 本稿では, 臨床的意義の大きい, 非常に小さな医療対象のセグメンテーションについて検討する。
畳み込みニューラルネットワーク(CNN),特にUNetライクなモデル,および最近のトランスフォーマーは画像セグメンテーションの著しい進歩を示しているが,本論文では,小さな医学的対象や病変のセグメンテーションにおいて,その性能が劣っていることを実証的に示した。
この制限は、符号化および復号過程における情報損失に起因する可能性がある。
この課題に対応するために,医療画像における小物体分割のためのEFCNetという新しいモデルを提案する。
本モデルは,CSAA(Cross-Stage Axial Attention Module)とMPS(Multi-Precision Supervision Module)の2つのモジュールを含む。
これらのモジュールは、それぞれエンコーディングとデコード手順中の情報損失に対処する。
具体的には、CSAAはエンコーダの全段階の機能を統合し、異なる復号段階に必要な適切な情報を適応的に学習することで、エンコーダの情報損失を低減する。
一方,MPSはデコーダに新しいマルチ精度監視機構を導入する。
このメカニズムは、デコーダの初期段階での低解像度の特徴に注意を向け、その後の畳み込みとサンプリングプロセスによる情報損失を軽減し、モデルのグローバルな知覚を高める。
2つのベンチマーク医用画像データセットを用いて,本モデルの評価を行った。
その結果, EFCNetは, 医用画像と正常画像の両方において, 従来のセグメンテーション法よりも有意に優れていた。
関連論文リスト
- A Mutual Inclusion Mechanism for Precise Boundary Segmentation in Medical Images [2.9137615132901704]
医用画像の正確な境界セグメンテーションのための新しい深層学習手法MIPC-Netを提案する。
位置特徴抽出時のチャネル情報に重点を置くMIPCモジュールを提案する。
また,エンコーダとデコーダの統合性を高めるグローバルな残差接続であるGL-MIPC-Residueを提案する。
論文 参考訳(メタデータ) (2024-04-12T02:14:35Z) - BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - MCPA: Multi-scale Cross Perceptron Attention Network for 2D Medical
Image Segmentation [7.720152925974362]
MCPA(Multiscale Cross Perceptron Attention Network)と呼ばれる2次元医用画像分割モデルを提案する。
MCPAは、エンコーダ、デコーダ、クロスパーセプトロンの3つの主要コンポーネントで構成されている。
提案したMCPAモデルを,様々なタスクやデバイスから利用可能ないくつかの医用画像データセット上で評価した。
論文 参考訳(メタデータ) (2023-07-27T02:18:12Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - HistoSeg : Quick attention with multi-loss function for multi-structure
segmentation in digital histology images [0.696194614504832]
医療画像のセグメンテーションは、コンピュータ支援による診断、手術、治療を支援する。
一般化デコーダネットワーク,クイックアテンションモジュール,マルチロス関数を提案する。
医用画像セグメンテーション用データセットであるMoNuSegとGlaSにおいて,提案するネットワークの有効性を評価する。
論文 参考訳(メタデータ) (2022-09-01T21:10:00Z) - Atrous Residual Interconnected Encoder to Attention Decoder Framework
for Vertebrae Segmentation via 3D Volumetric CT Images [1.8146155083014204]
本稿では,3次元容積CT画像を用いた新しい椎骨分割法を提案する。
提案モデルは,ミニバッチトレーニング性能の最適化にレイヤ正規化を用いた,エンコーダからデコーダへの構造に基づく。
実験の結果,本モデルは他の医学的意味セグメンテーション法と比較して競争力が得られた。
論文 参考訳(メタデータ) (2021-04-08T12:09:16Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。