論文の概要: HierAttn: Effectively Learn Representations from Stage Attention and
Branch Attention for Skin Lesions Diagnosis
- arxiv url: http://arxiv.org/abs/2205.04326v1
- Date: Mon, 9 May 2022 14:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 14:14:10.882894
- Title: HierAttn: Effectively Learn Representations from Stage Attention and
Branch Attention for Skin Lesions Diagnosis
- Title(参考訳): HierAttn: 皮膚病変診断におけるステージアテンションとブランチアテンションを効果的に学習する
- Authors: Wei Dai, Rui Liu, Tianyi Wu, Min Wang, Jianqin Yin, Jun Liu
- Abstract要約: 皮膚がんの早期診断と治療には, 皮膚病変の正確な非バイアス検査が重要である。
最近の研究では、画像の早期診断のための分類のために、アンサンブル畳み込みニューラルネットワーク(CNN)が開発されている。
階層型および自己注意型ニューラルネットワークであるHierAttnを紹介する。
- 参考スコア(独自算出の注目度): 18.026088450803258
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An accurate and unbiased examination of skin lesions is critical for the
early diagnosis and treatment of skin cancers. The visual feature of the skin
lesions varies significantly because skin images are collected from patients
with different skin colours by using various devices. Recent studies have
developed ensembled convolutional neural networks (CNNs) to classify the images
for early diagnosis. However, the practical use of CNNs is limited because
their network structures are heavyweight and neglect contextual information.
Vision transformers (ViTs) learn the global features by self-attention
mechanisms, but they also have comparatively large model sizes (more than
100M). To address these limitations, we introduce HierAttn, a lite and
effective neural network with hierarchical and self attention. HierAttn applies
a novel strategy based on learning local and global features by a multi-stage
and hierarchical network. The efficacy of HierAttn was evaluated by using the
dermoscopy images dataset ISIC2019 and smartphone photos dataset PAD-UFES-20.
The experimental results show that HierAttn achieves the best top-1 accuracy
and AUC among state-of-the-art mobile networks, including MobileNetV3 and
MobileViT. The code is available at https://github.com/anthonyweidai/HierAttn.
- Abstract(参考訳): 皮膚がんの早期診断と治療には,皮膚病変の正確かつ偏りのない検査が重要である。
皮膚病変の視覚的特徴は、様々なデバイスを用いて異なる皮膚色を持つ患者から皮膚画像が収集されるため、大きく異なる。
近年,画像の早期診断のための分類法として,畳み込みニューラルネットワーク(cnns)が開発されている。
しかし,ネットワーク構造が重く,文脈情報を無視しているため,CNNの実用化は限られている。
視覚トランスフォーマー(vits)は自己着脱機構によってグローバルな特徴を学習するが、比較的大きなモデルサイズ(100m以上)を持つ。
これらの制限に対処するため,階層的かつ自己注意的なニューラルネットワークであるHierAttnを導入する。
hierattnは、マルチステージおよび階層ネットワークによるローカルおよびグローバル特徴の学習に基づく、新しい戦略を適用する。
dermoscopy image dataset isic2019 と smartphone photos dataset pad-ufes-20 を用いて hierattn の有効性を評価した。
実験の結果,HierAttnはMobileNetV3やMobileViTなど,最先端のモバイルネットワークの中で最高のトップ1の精度とAUCを達成した。
コードはhttps://github.com/anthonyweidai/hierattnで入手できる。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - LesionAid: Vision Transformers-based Skin Lesion Generation and
Classification [0.0]
本研究では,ViTとViTGANに基づいて皮膚病変を分類する新しいマルチクラス予測フレームワークを提案する。
フレームワークは、ViTGAN、画像処理、説明可能なAIの4つの主要なフェーズで構成されている。
論文 参考訳(メタデータ) (2023-02-02T13:52:54Z) - Siamese Neural Networks for Skin Cancer Classification and New Class
Detection using Clinical and Dermoscopic Image Datasets [4.83420384410068]
皮膚病変の画像と臨床像の両面からSNN(Siamese Neural Networks)を評価した。
SNNは皮膚病変の画像の分類を可能にするだけでなく、訓練されたクラスとは異なる画像の識別も可能にする。
臨床および皮膚内視鏡的データセットにおいて、トップ-1分類精度は74.33%、85.61%である。
論文 参考訳(メタデータ) (2022-12-12T18:58:43Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Benchmarking convolutional neural networks for diagnosing Lyme disease
from images [0.0]
ライム病は世界で最も一般的な感染症の一つである。
近年の研究では、畳み込みニューラルネットワーク(CNN)が画像から皮膚の病変を識別するのに非常に有効であることが示されている。
プライバシの懸念が主な理由として、ライム病の予測のための公開のEMイメージデータセットは存在しない。
論文 参考訳(メタデータ) (2021-06-28T08:28:21Z) - Analysis of skin lesion images with deep learning [0.0]
内視鏡画像の分類における美術の現状を評価します。
ImageNetデータセットに事前トレーニングされた様々なディープニューラルネットワークアーキテクチャは、組み合わせたトレーニングデータセットに適合する。
皮膚病変の8クラスの検出のためのこれらのモデルの性能と適用性を検討する。
論文 参考訳(メタデータ) (2021-01-11T10:58:36Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。