論文の概要: A Novel Global Spatial Attention Mechanism in Convolutional Neural
Network for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2007.15897v1
- Date: Fri, 31 Jul 2020 08:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:31:30.384172
- Title: A Novel Global Spatial Attention Mechanism in Convolutional Neural
Network for Medical Image Classification
- Title(参考訳): 医用画像分類のための畳み込みニューラルネットワークにおける新しいグローバル空間注意機構
- Authors: Linchuan Xu, Jun Huang, Atsushi Nitanda, Ryo Asaoka, Kenji Yamanishi
- Abstract要約: 医用画像分類のための畳み込みニューラルネットワーク(CNN)における新しいグローバルな空間的注意機構を提案する。
提案手法により、4つの強力なCNNの性能を向上できるだけでなく、有意義な参加領域も得られることを示す。
- 参考スコア(独自算出の注目度): 26.445613932502365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial attention has been introduced to convolutional neural networks (CNNs)
for improving both their performance and interpretability in visual tasks
including image classification. The essence of the spatial attention is to
learn a weight map which represents the relative importance of activations
within the same layer or channel. All existing attention mechanisms are local
attentions in the sense that weight maps are image-specific. However, in the
medical field, there are cases that all the images should share the same weight
map because the set of images record the same kind of symptom related to the
same object and thereby share the same structural content. In this paper, we
thus propose a novel global spatial attention mechanism in CNNs mainly for
medical image classification. The global weight map is instantiated by a
decision boundary between important pixels and unimportant pixels. And we
propose to realize the decision boundary by a binary classifier in which the
intensities of all images at a pixel are the features of the pixel. The binary
classification is integrated into an image classification CNN and is to be
optimized together with the CNN. Experiments on two medical image datasets and
one facial expression dataset showed that with the proposed attention, not only
the performance of four powerful CNNs which are GoogleNet, VGG, ResNet, and
DenseNet can be improved, but also meaningful attended regions can be obtained,
which is beneficial for understanding the content of images of a domain.
- Abstract(参考訳): 画像分類を含む視覚的タスクのパフォーマンスと解釈性を改善するために、畳み込みニューラルネットワーク(CNN)に空間的注意が導入された。
空間的注意の本質は、同じ層またはチャネル内でアクティベーションの相対的重要性を表す重みマップを学ぶことである。
既存の注意のメカニズムはすべて、重みマップが画像に特有であるという意味で局所的な注意である。
しかし, 医療分野では, 画像の集合が同一対象と同一の症状を記録し, 同一の構造的内容を共有するため, すべての画像が同じ重みマップを共有する必要がある場合がある。
本稿では,医療画像の分類を主目的とし,cnnにおける新たな空間的注目機構を提案する。
グローバルウェイトマップは重要なピクセルと重要でないピクセルの間の決定境界によってインスタンス化される。
また,画素内のすべての画像の強度が画素の特徴であるバイナリ分類器によって決定境界を実現することを提案する。
バイナリ分類は画像分類CNNに統合され、CNNと共に最適化される。
2つの医用画像データセットと1つの表情データセットの実験により、googlenet, vgg, resnet, densenetの4つの強力なcnnの性能向上だけでなく、有意義な出席領域も得られ、ドメインのイメージの内容を理解するのに有用であることが示された。
関連論文リスト
- Understanding the Role of Pathways in a Deep Neural Network [4.456675543894722]
分類タスクで訓練された畳み込みニューラルネットワーク(CNN)を分析し,個々の画素の拡散経路を抽出するアルゴリズムを提案する。
画像からの個々のピクセルの最も大きな経路は、分類に重要な各層の特徴マップを横断する傾向にある。
論文 参考訳(メタデータ) (2024-02-28T07:53:19Z) - Keypoint-Augmented Self-Supervised Learning for Medical Image
Segmentation with Limited Annotation [21.203307064937142]
本稿では,短距離と長距離の両方の自己注意を保った表現を抽出するキーポイント拡張融合層を提案する。
特に,長距離空間の自己意識を学習する追加入力を組み込むことで,CNN機能マップを複数スケールで拡張する。
提案手法は,より堅牢な自己アテンションを生成することにより,既存のSSLメソッドよりも優れる。
論文 参考訳(メタデータ) (2023-10-02T22:31:30Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Gigapixel Histopathological Image Analysis using Attention-based Neural
Networks [7.1715252990097325]
圧縮経路と学習経路からなるCNN構造を提案する。
本手法は,グローバル情報とローカル情報の両方を統合し,入力画像のサイズに関して柔軟であり,弱い画像レベルラベルのみを必要とする。
論文 参考訳(メタデータ) (2021-01-25T10:18:52Z) - Learning Hybrid Representations for Automatic 3D Vessel Centerline
Extraction [57.74609918453932]
3次元医用画像からの血管の自動抽出は血管疾患の診断に不可欠である。
既存の方法では、3次元画像からそのような細い管状構造を分割する際に、抽出された容器の不連続に悩まされることがある。
抽出された船舶の連続性を維持するためには、地球的幾何学を考慮に入れる必要があると論じる。
この課題を解決するためのハイブリッド表現学習手法を提案します。
論文 参考訳(メタデータ) (2020-12-14T05:22:49Z) - Region Growing with Convolutional Neural Networks for Biomedical Image
Segmentation [1.5469452301122177]
本稿では,各座標方向の予測マスク領域を反復的に成長させることにより,畳み込みニューラルネットワーク(CNN)を用いてセグメンテーションを行う手法を提案する。
我々は、CNNの確率スコアのしきい値を用いて、その領域にピクセルが追加され、その領域に新しいピクセルが加わらないまで繰り返し続けるかどうかを判定する。
本手法は,少量のトレーニングデータを活用するとともに,計算効率を保ちながら,高いセグメンテーション精度を達成し,生物学的に現実的な形態的特徴を維持できる。
論文 参考訳(メタデータ) (2020-09-23T17:53:00Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Integrating global spatial features in CNN based Hyperspectral/SAR
imagery classification [11.399460655843496]
本稿では,リモートセンシング画像の情報,すなわち地理緯度-経度情報を利用する新しい手法を提案する。
デュアルブランチ畳み込みニューラルネットワーク(CNN)分類法は,画像の画素特徴をマイニングするためのグローバル情報と組み合わせて設計されている。
高スペクトル画像(HSI)とポラリメトリック合成開口レーダ(PolSAR)画像(PolSAR)の2つのリモートセンシング画像を用いて本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-05-30T10:00:10Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。