論文の概要: DFEN: Dual Feature Equalization Network for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2505.05913v1
- Date: Fri, 09 May 2025 09:38:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.222106
- Title: DFEN: Dual Feature Equalization Network for Medical Image Segmentation
- Title(参考訳): DFEN:医療画像セグメンテーションのための二重特徴等化ネットワーク
- Authors: Jianjian Yin, Yi Chen, Chengyu Li, Zhichao Zheng, Yanhui Gu, Junsheng Zhou,
- Abstract要約: 本稿では,Swin TransformerとConvolutional Neural Networkのハイブリッドアーキテクチャに基づく二重特徴等化ネットワークを提案する。
Swin Transformerはエンコーダとデコーダの両方として利用され、これによりモデルが長距離依存や空間的相関をキャプチャする能力を高める。
- 参考スコア(独自算出の注目度): 9.091452460153672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current methods for medical image segmentation primarily focus on extracting contextual feature information from the perspective of the whole image. While these methods have shown effective performance, none of them take into account the fact that pixels at the boundary and regions with a low number of class pixels capture more contextual feature information from other classes, leading to misclassification of pixels by unequal contextual feature information. In this paper, we propose a dual feature equalization network based on the hybrid architecture of Swin Transformer and Convolutional Neural Network, aiming to augment the pixel feature representations by image-level equalization feature information and class-level equalization feature information. Firstly, the image-level feature equalization module is designed to equalize the contextual information of pixels within the image. Secondly, we aggregate regions of the same class to equalize the pixel feature representations of the corresponding class by class-level feature equalization module. Finally, the pixel feature representations are enhanced by learning weights for image-level equalization feature information and class-level equalization feature information. In addition, Swin Transformer is utilized as both the encoder and decoder, thereby bolstering the ability of the model to capture long-range dependencies and spatial correlations. We conducted extensive experiments on Breast Ultrasound Images (BUSI), International Skin Imaging Collaboration (ISIC2017), Automated Cardiac Diagnosis Challenge (ACDC) and PH$^2$ datasets. The experimental results demonstrate that our method have achieved state-of-the-art performance. Our code is publicly available at https://github.com/JianJianYin/DFEN.
- Abstract(参考訳): 医用画像セグメンテーションの現在の手法は、主に画像全体の観点からコンテキスト特徴情報を抽出することに焦点を当てている。
これらの手法は有効な性能を示してきたが、境界のピクセルやクラス画素数の少ない領域が他のクラスからよりコンテキスト的特徴情報をキャプチャするという事実を考慮に入れておらず、文脈的特徴情報の不等化による画素の誤分類につながっている。
本稿では,Swin TransformerとConvolutional Neural Networkのハイブリッドアーキテクチャに基づくデュアル特徴等化ネットワークを提案し,画像レベルの等化特徴情報とクラスレベルの等化特徴情報により画素特徴表現を拡大することを目的とする。
まず、画像レベルの特徴等化モジュールは、画像内の画素の文脈情報を等化するように設計されている。
次に、同じクラスの領域を集約し、対応するクラスのピクセル特徴表現をクラスレベルの特徴等化モジュールで等化する。
最後に、画像レベルの等化特徴情報とクラスレベルの等化特徴情報との学習重みにより画素特徴表現を向上する。
さらに、Swin Transformerはエンコーダとデコーダの両方として利用され、これによりモデルが長距離依存や空間的相関をキャプチャする能力を増強する。
乳房超音波画像(BUSI)、ISIC2017(International Skin Imaging Collaboration)、ACDC(Automated Cardiac Diagnosis Challenge)、PH$^2$データセットについて広範な実験を行った。
実験の結果,本手法は最先端の性能を達成できた。
私たちのコードはhttps://github.com/JianJianYin/DFEN.comで公開されています。
関連論文リスト
- Learning Invariant Inter-pixel Correlations for Superpixel Generation [12.605604620139497]
学習可能な特徴は、制約付き判別能力を示し、不満足なピクセルグループ化性能をもたらす。
本稿では,不変画素間相関と統計特性を選択的に分離するContentangle Superpixelアルゴリズムを提案する。
4つのベンチマークデータセットの実験結果は、既存の最先端手法に対するアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-28T09:46:56Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - Class Balanced PixelNet for Neurological Image Segmentation [20.56747443955369]
画素レベルの畳み込みニューラルネットワーク(CNN)を用いた自動脳腫瘍分割法(PixelNetなど)を提案する。
提案モデルは脳腫瘍と虚血性脳梗塞のセグメンテーションデータセットにおいて有望な結果を得た。
論文 参考訳(メタデータ) (2022-04-23T10:57:54Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - ISNet: Integrate Image-Level and Semantic-Level Context for Semantic
Segmentation [64.56511597220837]
共起型視覚パターンは、コンテキスト情報の集約を共通のパラダイムとし、セマンティックイメージセグメンテーションのためのピクセル表現を強化する。
既存のアプローチは、画像全体の観点からコンテキストをモデル化すること、すなわち、画像レベルのコンテキスト情報を集約することに焦点を当てている。
本稿では,画像レベルと意味レベルの文脈情報を集約することで,ピクセル表現を増大させる手法を提案する。
論文 参考訳(メタデータ) (2021-08-27T16:38:22Z) - Mining Contextual Information Beyond Image for Semantic Segmentation [37.783233906684444]
セマンティックイメージセグメンテーションにおける文脈集約問題について検討する。
個々の画像以外の文脈情報をマイニングして、ピクセル表現をさらに強化することを提案する。
提案手法は,既存のセグメンテーションフレームワークに強制的に組み込むことができる。
論文 参考訳(メタデータ) (2021-08-26T14:34:23Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z) - Steering Self-Supervised Feature Learning Beyond Local Pixel Statistics [60.92229707497999]
画像の特定の変換の識別に基づく自己教師型特徴学習の新しい原理を提案する。
実験により,LCI,画像ワープ,回転などの変換を識別する学習が,技術一般化能力の状態を特徴付けることを示した。
論文 参考訳(メタデータ) (2020-04-05T22:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。