論文の概要: Towards Better Dermoscopic Image Feature Representation Learning for
Melanoma Classification
- arxiv url: http://arxiv.org/abs/2207.07303v1
- Date: Fri, 15 Jul 2022 06:07:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 13:39:37.200149
- Title: Towards Better Dermoscopic Image Feature Representation Learning for
Melanoma Classification
- Title(参考訳): メラノーマ分類における画像特徴表現学習の改善に向けて
- Authors: ChengHui Yu, MingKang Tang, ShengGe Yang, MingQing Wang, Zhe Xu,
JiangPeng Yan, HanMo Chen, Yu Yang, Xiao-Jun Zeng, Xiu Li
- Abstract要約: 皮膚内視鏡画像を用いた深層学習によるメラノーマ分類は,近年,早期メラノーマの自動診断において大きな可能性を秘めている。
本研究では, 病変の特徴の表現学習を改善するために, それぞれ課題を解決しようと試みる。
具体的には、GANベースのデータ拡張(GDA)戦略を用いて、提案した暗黙のヘアデノイング(IHD)戦略とともに、合成メラノーマ陽性画像を生成する。
IHDモジュールをトレーニングするために、毛髪ノイズはISIC 2020データセットにラベル付けされ、毛髪のようなアーティファクトのアノテーションを付加した最初の大規模な皮膚内視鏡データセットとなる。
- 参考スコア(独自算出の注目度): 25.525492490284293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based melanoma classification with dermoscopic images has
recently shown great potential in automatic early-stage melanoma diagnosis.
However, limited by the significant data imbalance and obvious extraneous
artifacts, i.e., the hair and ruler markings, discriminative feature extraction
from dermoscopic images is very challenging. In this study, we seek to resolve
these problems respectively towards better representation learning for lesion
features. Specifically, a GAN-based data augmentation (GDA) strategy is adapted
to generate synthetic melanoma-positive images, in conjunction with the
proposed implicit hair denoising (IHD) strategy. Wherein the hair-related
representations are implicitly disentangled via an auxiliary classifier network
and reversely sent to the melanoma-feature extraction backbone for better
melanoma-specific representation learning. Furthermore, to train the IHD
module, the hair noises are additionally labeled on the ISIC2020 dataset,
making it the first large-scale dermoscopic dataset with annotation of
hair-like artifacts. Extensive experiments demonstrate the superiority of the
proposed framework as well as the effectiveness of each component. The improved
dataset publicly avaliable at https://github.com/kirtsy/DermoscopicDataset.
- Abstract(参考訳): 深層学習に基づく皮膚鏡画像によるメラノーマ分類は,近年,早期黒色腫の自動診断に大きな可能性を示している。
しかし、重要なデータの不均衡と明らかな外的アーティファクト、すなわち毛髪と定規のマーキングによって制限されるため、皮膚鏡像からの識別的特徴抽出は非常に困難である。
本研究では,病変の特徴の表現学習を改善するために,これらの課題をそれぞれ解決する。
具体的には、GANベースのデータ拡張(GDA)戦略を用いて、提案した暗黙のヘアデノイング(IHD)戦略とともに、合成メラノーマ陽性画像を生成する。
一方、毛髪関連表現は補助分類器ネットワークを介して暗黙的に切り離され、メラノーマ特異的表現学習を改善するためにメラノーマ機能抽出バックボーンに逆向きに送られる。
さらに、IHDモジュールをトレーニングするために、毛髪ノイズはISIC2020データセットにラベル付けされ、毛髪のようなアーティファクトのアノテーションを付加した最初の大規模皮膚内視鏡データセットとなった。
広範な実験により、提案フレームワークの優位性と各コンポーネントの有効性が実証された。
改善されたデータセットはhttps://github.com/kirtsy/DermoscopicDatasetで公開公開されている。
関連論文リスト
- Towards Fairness in AI for Melanoma Detection: Systemic Review and Recommendations [0.0]
本研究は,2013年から2024年にかけて発行されたAIによるメラノーマ検出研究の体系的レビューと予備的分析を行う。
以上の結果から,AIはメラノーマの検出を増強するが,皮膚の色調の軽さには有意な偏りがあることが示唆された。
この研究は、すべての患者に公平で効果的なAIモデルを開発するために、多様なデータセットと堅牢な評価指標の必要性を強調している。
論文 参考訳(メタデータ) (2024-11-19T20:31:38Z) - A Comparative Analysis Towards Melanoma Classification Using Transfer
Learning by Analyzing Dermoscopic Images [0.0]
本稿では,皮膚病変の分類と診断を可能にするために,深層学習技術と確立された転写学習手法を組み合わせたシステムを提案する。
研究者たちは'Deep Learning'テクニックを使って、膨大な数の写真を訓練し、基本的には期待される結果を得る。
DenseNetは、96.64%のバリデーション精度、9.43%のバリデーション損失、99.63%のテストセット精度など、他のものよりも優れていた。
論文 参考訳(メタデータ) (2023-12-02T19:46:48Z) - A Web-based Mpox Skin Lesion Detection System Using State-of-the-art
Deep Learning Models Considering Racial Diversity [1.846958522363092]
以前は「モンキーポックス」と呼ばれていた「ムポックス」は、公衆衛生上重要な問題となり、世界中で110か国以上に広まっている。
ポリメラーゼ連鎖反応(PCR)に基づく診断がすぐには利用できない場合に、コンピュータ支援スクリーニングツールが有用であることが証明されている。
深層学習法は複雑なデータ表現を学習する上で強力であるが、その有効性は主に適切なトレーニングデータに依存している。
論文 参考訳(メタデータ) (2023-06-25T08:23:44Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Extended Feature Space-Based Automatic Melanoma Detection System [9.165013127586267]
メラノーマは皮膚がんで最も致命的な形態である。メラノーマの制御不能な増殖はメラノーマにつながる。
自動メラノーマ検出システム(AMDS)は、画像処理技術に基づいてメラノーマを検出する。
拡張特徴ベクトル空間の計算のための新しいアルゴリズムExtFvAMDSを提案する。
論文 参考訳(メタデータ) (2022-09-10T04:15:45Z) - Data-Driven Deep Supervision for Skin Lesion Classification [36.24996525103533]
本稿では,ロバストな特徴抽出のために入力データを利用する新しいディープニューラルネットワークを提案する。
具体的には、畳み込みネットワークの挙動(視野)を分析し、深い監視の場所を見つける。
論文 参考訳(メタデータ) (2022-09-04T03:57:08Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Robust Deep AUC Maximization: A New Surrogate Loss and Empirical Studies
on Medical Image Classification [63.44396343014749]
AUCスコアに対する新たなマージンベースサロゲート損失関数を提案する。
一般的に使用されるものよりも頑丈である。
大規模な最適化の観点からも同じ利点を享受しながら、正方損失。
私たちの知る限りでは、DAMが大規模医療画像データセットで成功するのはこれが初めてです。
論文 参考訳(メタデータ) (2020-12-06T03:41:51Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Data Augmentation for Histopathological Images Based on
Gaussian-Laplacian Pyramid Blending [59.91656519028334]
データ不均衡は、機械学習(ML)アルゴリズムに影響を及ぼす主要な問題である。
本稿では、HIデータセットを増大させるだけでなく、患者間の変動を分散させる新しいアプローチを提案する。
BreakHisデータセットの実験結果から、文献で示されたDA手法の大多数は、有望な利得を示している。
論文 参考訳(メタデータ) (2020-01-31T22:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。