論文の概要: Attention Model Enhanced Network for Classification of Breast Cancer
Image
- arxiv url: http://arxiv.org/abs/2010.03271v1
- Date: Wed, 7 Oct 2020 08:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:39:08.269259
- Title: Attention Model Enhanced Network for Classification of Breast Cancer
Image
- Title(参考訳): 乳がん画像の分類のための注意モデル強化ネットワーク
- Authors: Xiao Kang, Xingbo Liu, Xiushan Nie, Xiaoming Xi, Yilong Yin
- Abstract要約: AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
- 参考スコア(独自算出の注目度): 54.83246945407568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast cancer classification remains a challenging task due to inter-class
ambiguity and intra-class variability. Existing deep learning-based methods try
to confront this challenge by utilizing complex nonlinear projections. However,
these methods typically extract global features from entire images, neglecting
the fact that the subtle detail information can be crucial in extracting
discriminative features. In this study, we propose a novel method named
Attention Model Enhanced Network (AMEN), which is formulated in a multi-branch
fashion with pixel-wised attention model and classification submodular.
Specifically, the feature learning part in AMEN can generate pixel-wised
attention map, while the classification submodular are utilized to classify the
samples. To focus more on subtle detail information, the sample image is
enhanced by the pixel-wised attention map generated from former branch.
Furthermore, boosting strategy are adopted to fuse classification results from
different branches for better performance. Experiments conducted on three
benchmark datasets demonstrate the superiority of the proposed method under
various scenarios.
- Abstract(参考訳): 乳がんの分類は、クラス間のあいまいさとクラス内変動のために難しい課題である。
既存のディープラーニングに基づく手法は、複雑な非線形射影を利用してこの問題に対処しようとする。
しかし、これらの方法は通常、画像全体から全体的特徴を抽出し、微妙な詳細情報が識別的特徴の抽出に不可欠であるという事実を無視する。
本研究では,マルチブランチ方式で画素単位のアテンションモデルとサブモジュールの分類を行い,Attention Model Enhanced Network (AMEN) という新しい手法を提案する。
具体的には、AMENの特徴学習部が画素対応の注目マップを生成し、分類サブモジュールを用いてサンプルを分類する。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素注目マップによって強化される。
さらに, 異なる枝の分類結果を融合させ, 性能向上を図るため, ブースティング戦略を採用した。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を示す。
関連論文リスト
- Multilevel Saliency-Guided Self-Supervised Learning for Image Anomaly
Detection [15.212031255539022]
異常検出(AD)はコンピュータビジョンの基本課題である。
そこで我々は,サリエンシガイダンスを活用して意味的手がかりを付加するCutSwapを提案する。
CutSwapは、2つの主流ADベンチマークデータセット上で最先端のADパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-30T08:03:53Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Semantic Embedded Deep Neural Network: A Generic Approach to Boost
Multi-Label Image Classification Performance [10.257208600853199]
本稿では,空間認識のセマンティックな特徴を応用するために,汎用的なセマンティック埋め込み型ディープニューラルネットワークを提案する。
Avg.relative Improvement of 15.27% in terms of AUC score across all labels than the baseline approach。
論文 参考訳(メタデータ) (2023-05-09T07:44:52Z) - Joint localization and classification of breast tumors on ultrasound
images using a novel auxiliary attention-based framework [7.6620616780444974]
本稿では,注意機構と半教師付き半教師付き学習戦略に基づく,新しい共同局所化と分類モデルを提案する。
提案されたモジュール化フレームワークは、様々なアプリケーションに対して柔軟なネットワーク置換を可能にする。
論文 参考訳(メタデータ) (2022-10-11T20:14:13Z) - Fine-Grained Visual Classification using Self Assessment Classifier [12.596520707449027]
識別的特徴の抽出は、きめ細かい視覚的分類タスクにおいて重要な役割を担っている。
本稿では,画像とトップkの予測クラスを同時に活用する自己評価手法を提案する。
本手法は,CUB200-2011,Stanford Dog,FGVC Aircraft のデータセットに対して,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-21T07:41:27Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Enhancing Fine-Grained Classification for Low Resolution Images [97.82441158440527]
低解像度画像は、限られた情報内容の固有の課題と、サブカテゴリ分類に有用な詳細の欠如に悩まされる。
本研究では,補助情報を用いて分類の識別的特徴を学習する,新たな属性支援損失を提案する。
提案する損失関数により、モデルは属性レベルの分離性を取り入れながら、クラス固有の識別特徴を学習することができる。
論文 参考訳(メタデータ) (2021-05-01T13:19:02Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。