論文の概要: EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2208.09197v1
- Date: Fri, 19 Aug 2022 07:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:05:24.548945
- Title: EAA-Net: Rethinking the Autoencoder Architecture with Intra-class
Features for Medical Image Segmentation
- Title(参考訳): EAA-Net: 医用画像セグメンテーションのためのクラス内機能を備えたオートエンコーダアーキテクチャ再考
- Authors: Shiqiang Ma, Xuejian Li, Jijun Tang, Fei Guo
- Abstract要約: We propose a light-weight end-to-end segmentation framework based on multi-task learning, called Edge Attention autoencoder Network (EAA-Net)。
提案手法は,クラス間特徴の抽出にセグメンテーションネットワークを利用するだけでなく,フォアグラウンド内でのクラス内特徴の抽出にも再構成ネットワークを適用する。
実験結果から,医用画像分割作業において,本手法が良好に機能することが確認された。
- 参考スコア(独自算出の注目度): 4.777011444412729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic image segmentation technology is critical to the visual analysis.
The autoencoder architecture has satisfying performance in various image
segmentation tasks. However, autoencoders based on convolutional neural
networks (CNN) seem to encounter a bottleneck in improving the accuracy of
semantic segmentation. Increasing the inter-class distance between foreground
and background is an inherent characteristic of the segmentation network.
However, segmentation networks pay too much attention to the main visual
difference between foreground and background, and ignores the detailed edge
information, which leads to a reduction in the accuracy of edge segmentation.
In this paper, we propose a light-weight end-to-end segmentation framework
based on multi-task learning, termed Edge Attention autoencoder Network
(EAA-Net), to improve edge segmentation ability. Our approach not only utilizes
the segmentation network to obtain inter-class features, but also applies the
reconstruction network to extract intra-class features among the foregrounds.
We further design a intra-class and inter-class features fusion module -- I2
fusion module. The I2 fusion module is used to merge intra-class and
inter-class features, and use a soft attention mechanism to remove invalid
background information. Experimental results show that our method performs well
in medical image segmentation tasks. EAA-Net is easy to implement and has small
calculation cost.
- Abstract(参考訳): 画像の自動分割技術は視覚的解析に不可欠である。
autoencoderアーキテクチャは、様々な画像分割タスクのパフォーマンスを満足させる。
しかし、畳み込みニューラルネットワーク(CNN)に基づくオートエンコーダは、セマンティックセグメンテーションの精度向上にボトルネックに直面しているように見える。
前景と背景の間のクラス間距離の増加はセグメンテーションネットワークの固有の特徴である。
しかしながら、セグメンテーションネットワークは、フォアグラウンドとバックグラウンドの主な視覚的差異にあまりに注意を払っており、エッジセグメンテーションの精度の低下につながる詳細なエッジ情報を無視している。
本稿では,エッジアテンション・オートエンコーダネットワーク(EAA-Net)と呼ばれるマルチタスク学習に基づく軽量なエンドツーエンドセグメンテーションフレームワークを提案し,エッジセグメンテーション能力を向上させる。
本手法は,クラス間特徴の獲得にセグメント化ネットワークを利用するだけでなく,前景間のクラス内特徴の抽出にもレコンストラクションネットワークを適用する。
さらに、クラス内およびクラス間の機能融合モジュール -- i2 fusionモジュールを設計。
I2融合モジュールは、クラス内およびクラス間機能をマージし、ソフトアテンション機構を使用して、無効なバックグラウンド情報を削除する。
実験の結果, 医用画像分割作業は良好であった。
EAA-Netの実装が容易で、計算コストも小さい。
関連論文リスト
- TransResNet: Integrating the Strengths of ViTs and CNNs for High Resolution Medical Image Segmentation via Feature Grafting [6.987177704136503]
医用画像領域で高解像度画像が好ましいのは、基礎となる方法の診断能力を大幅に向上させるためである。
医用画像セグメンテーションのための既存のディープラーニング技術のほとんどは、空間次元が小さい入力画像に最適化されており、高解像度画像では不十分である。
我々はTransResNetという並列処理アーキテクチャを提案し、TransformerとCNNを並列的に組み合わせ、マルチ解像度画像から特徴を独立して抽出する。
論文 参考訳(メタデータ) (2024-10-01T18:22:34Z) - MSA$^2$Net: Multi-scale Adaptive Attention-guided Network for Medical Image Segmentation [8.404273502720136]
MSA$2$Netは、スキップ接続を適切に設計した新しいディープセグメンテーションフレームワークである。
本稿では,空間的特徴を選択的に強調するために,MASAG(Multi-Scale Adaptive Space Attention Gate)を提案する。
MSA$2$Netは、最先端のSOTA(State-of-the-art)よりも優れています。
論文 参考訳(メタデータ) (2024-07-31T14:41:10Z) - FuseNet: Self-Supervised Dual-Path Network for Medical Image
Segmentation [3.485615723221064]
FuseNetは、自己教師型セマンティックセグメンテーションのためのデュアルストリームフレームワークである。
クロスモーダル融合技術は、テキストデータを拡張画像に置き換えることで、CLIPの原理を拡張している。
皮膚病変と肺分画データセットの実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-22T00:03:16Z) - SegNetr: Rethinking the local-global interactions and skip connections
in U-shaped networks [1.121518046252855]
U字型ネットワークは、シンプルで調整が容易な構造のため、医療画像セグメンテーションの分野を支配してきた。
我々は任意の段階で動的に局所的・局所的相互作用を行なえる新しいSegNetrブロックを導入する。
59%と76%のパラメータとGFLOPがバニラU-Netより少ない4つの主流医療画像セグメンテーションデータセットに対するSegNetrの有効性を検証した。
論文 参考訳(メタデータ) (2023-07-06T12:39:06Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation [78.30720731968135]
セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位のアノテーションへの依存を軽減するために提起されている。
我々は、ソースドメインのオーバーフィットを軽減し、最終的なモデルをセグメント化タスクに集中できるようにするDecoupleNetを提案する。
我々はまた、自己識別(SD)を推進し、擬似ラベルでより識別可能なターゲットドメイン特徴を学習するための補助分類器を導入した。
論文 参考訳(メタデータ) (2022-07-20T15:47:34Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - AF$_2$: Adaptive Focus Framework for Aerial Imagery Segmentation [86.44683367028914]
航空画像のセグメンテーションにはいくつかの独特な課題があり、中でも最も重要なものは前景と背景のアンバランスにある。
本稿では,階層的なセグメンテーション手法を採用し,マルチスケール表現を適応的に活用するAdaptive Focus Framework (AF$)を提案する。
AF$は、広く使われている3つの航空ベンチマークの精度を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-18T10:14:45Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。