論文の概要: Soft-Attention Improves Skin Cancer Classification Performance
- arxiv url: http://arxiv.org/abs/2105.03358v1
- Date: Wed, 5 May 2021 00:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 01:32:19.382243
- Title: Soft-Attention Improves Skin Cancer Classification Performance
- Title(参考訳): ソフトアテンションは皮膚がんの分類性能を改善する
- Authors: Soumyya Kanti Datta, Mohammad Abuzar Shaikh, Hari Srihari, Mingchen
Gao
- Abstract要約: 臨床応用では、ニューラルネットワークは入力画像の最も重要な部分に集中し、強調する必要がある。
本稿では,深部神経アーキテクチャにおけるソフトアテンションの有効性について検討する。
- 参考スコア(独自算出の注目度): 0.10195618602298678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In clinical applications, neural networks must focus on and highlight the
most important parts of an input image. Soft-Attention mechanism enables a
neural network toachieve this goal. This paper investigates the effectiveness
of Soft-Attention in deep neural architectures. The central aim of
Soft-Attention is to boost the value of important features and suppress the
noise-inducing features. We compare the performance of VGG, ResNet,
InceptionResNetv2 and DenseNet architectures with and without the
Soft-Attention mechanism, while classifying skin lesions. The original network
when coupled with Soft-Attention outperforms the baseline[14] by 4.7% while
achieving a precision of 93.7% on HAM10000 dataset. Additionally,
Soft-Attention coupling improves the sensitivity score by 3.8% compared to
baseline[28] and achieves 91.6% on ISIC-2017 dataset. The code is publicly
available at github.
- Abstract(参考訳): 臨床応用では、ニューラルネットワークは入力画像の最も重要な部分に集中し、強調する必要がある。
ソフトアテンション機構により、ニューラルネットワークはこの目標を達成することができる。
本稿では,深部神経アーキテクチャにおけるソフトアテンションの有効性について検討する。
ソフトアテンションの主な目的は、重要な特徴の価値を高め、ノイズを誘発する特徴を抑制することである。
皮膚病変を分類しながら, vgg, resnet, inceptionresnetv2, densenetアーキテクチャの性能とソフトアテンション機構の有無を比較した。
ソフトアテンションと組み合わせた元のネットワークはベースライン[14]を4.7%上回り、HAM10000データセットの精度は93.7%である。
さらに、Soft-Attention couplingは、ベースライン[28]と比較して感度スコアを3.8%改善し、ISIC-2017データセットで91.6%を達成した。
コードはgithubで公開されている。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Leveraging Spatial and Semantic Feature Extraction for Skin Cancer Diagnosis with Capsule Networks and Graph Neural Networks [0.0]
本研究では,グラフニューラルネットワーク(GNN)とCapsule Networksを統合して,分類性能を向上させるという,革新的なアプローチを提案する。
本稿では,Tiny Pyramid Vision GNN(Tiny Pyramid ViG)アーキテクチャをCapsule Networkに組み込んで評価・拡張することに焦点を当てた。
75回のトレーニングの後、我々のモデルは89.23%と95.52%に達し、既存のベンチマークを上回った。
論文 参考訳(メタデータ) (2024-03-18T17:47:39Z) - Robust Localization of Key Fob Using Channel Impulse Response of Ultra
Wide Band Sensors for Keyless Entry Systems [12.313730356985019]
キーレス入力のセキュリティ機能として、車内および周囲のキーフォブのローカライズにニューラルネットワークを使用することは、急速に進んでいる。
モデルの性能は, 高速勾配法では, 一定の範囲で67%向上し, 基本反復法では37%, 投射勾配法では37%向上した。
論文 参考訳(メタデータ) (2024-01-16T22:35:14Z) - Touch Analysis: An Empirical Evaluation of Machine Learning
Classification Algorithms on Touch Data [7.018254711671888]
個人を正しく分類するための新しいDeep Neural Net(DNN)アーキテクチャを提案する。
新機能と既存の機能を組み合わせると、SVMとkNNはそれぞれ94.7%と94.6%の分類精度を達成した。
論文 参考訳(メタデータ) (2023-11-23T20:31:48Z) - Gated Attention Coding for Training High-performance and Efficient Spiking Neural Networks [22.66931446718083]
Gated Attention Coding (GAC) は、多次元アテンションユニットを利用して入力を効率よく強力な表現にエンコードするプラグイン・アンド・プレイモジュールである。
GACは、SNNのスパイク駆動特性を損なわない前処理層として機能する。
CIFAR10/100とImageNetデータセットの実験では、GACが最先端の精度を目覚ましい効率で達成していることが示されている。
論文 参考訳(メタデータ) (2023-08-12T14:42:02Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Automated Atrial Fibrillation Classification Based on Denoising Stacked
Autoencoder and Optimized Deep Network [1.7403133838762446]
心房細動(AFib)の発症率は世界中で増加傾向にある。
AFibのリスクを早期に検出するために,我々はディープニューラルネットワークに基づく自動検出システムを開発した。
Denoising Autoencoders (DAE) を用いて心電図信号を復調するエンド・ツー・エンドモデルを提案する。
論文 参考訳(メタデータ) (2022-01-26T21:45:48Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - Coresets for Robust Training of Neural Networks against Noisy Labels [78.03027938765746]
本稿では,雑音ラベルで訓練したディープネットワークの堅牢なトレーニングのための理論的保証を強く備えた新しい手法を提案する。
我々は、ほぼ低ランクのヤコビ行列を提供するクリーンなデータポイントの重み付き部分集合(コアセット)を選択する。
我々の実験は、我々の理論を裏付け、我々のサブセットで訓練されたディープネットワークが、最先端技術よりもはるかに優れたパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2020-11-15T04:58:11Z) - Neural Network Virtual Sensors for Fuel Injection Quantities with
Provable Performance Specifications [71.1911136637719]
証明可能な保証が、他の現実世界の設定にどのように自然に適用できるかを示す。
本研究では, 燃料噴射量を一定範囲で最大化するために, 特定の間隔の燃料噴射量を目標にする方法を示す。
論文 参考訳(メタデータ) (2020-06-30T23:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。