論文の概要: LesionAid: Vision Transformers-based Skin Lesion Generation and
Classification
- arxiv url: http://arxiv.org/abs/2302.01104v1
- Date: Thu, 2 Feb 2023 13:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 13:54:54.171613
- Title: LesionAid: Vision Transformers-based Skin Lesion Generation and
Classification
- Title(参考訳): lesionaid : 視覚トランスフォーマーに基づく皮膚病変の生成と分類
- Authors: Ghanta Sai Krishna, Kundrapu Supriya, Mallikharjuna Rao K, Meetiksha
Sorgile
- Abstract要約: 本研究では,ViTとViTGANに基づいて皮膚病変を分類する新しいマルチクラス予測フレームワークを提案する。
フレームワークは、ViTGAN、画像処理、説明可能なAIの4つの主要なフェーズで構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Skin cancer is one of the most prevalent forms of human cancer. It is
recognized mainly visually, beginning with clinical screening and continuing
with the dermoscopic examination, histological assessment, and specimen
collection. Deep convolutional neural networks (CNNs) perform highly segregated
and potentially universal tasks against a classified finegrained object. This
research proposes a novel multi-class prediction framework that classifies skin
lesions based on ViT and ViTGAN. Vision transformers-based GANs (Generative
Adversarial Networks) are utilized to tackle the class imbalance. The framework
consists of four main phases: ViTGANs, Image processing, and explainable AI.
Phase 1 consists of generating synthetic images to balance all the classes in
the dataset. Phase 2 consists of applying different data augmentation
techniques and morphological operations to increase the size of the data.
Phases 3 & 4 involve developing a ViT model for edge computing systems that can
identify patterns and categorize skin lesions from the user's skin visible in
the image. In phase 3, after classifying the lesions into the desired class
with ViT, we will use explainable AI (XAI) that leads to more explainable
results (using activation maps, etc.) while ensuring high predictive accuracy.
Real-time images of skin diseases can capture by a doctor or a patient using
the camera of a mobile application to perform an early examination and
determine the cause of the skin lesion. The whole framework is compared with
the existing frameworks for skin lesion detection.
- Abstract(参考訳): 皮膚がんはヒトの最も一般的ながんの1つである。
臨床スクリーニングから始まり, 皮膚内視鏡検査, 組織学的評価, 検体採取まで, 主に視覚的に認識される。
深層畳み込みニューラルネットワーク(cnns)は、分類された細粒オブジェクトに対して高度に分離され、潜在的に普遍的なタスクを実行する。
本研究では,ViTとViTGANに基づいて皮膚病変を分類する新しいマルチクラス予測フレームワークを提案する。
ビジョントランスフォーマーに基づくgan(generative adversarial network)は、クラス不均衡に取り組むために利用される。
フレームワークは、ViTGAN、画像処理、説明可能なAIの4つの主要なフェーズで構成されている。
フェーズ1は、データセット内のすべてのクラスのバランスをとるために合成画像を生成することで構成される。
フェーズ2は、異なるデータ拡張技術と形態素演算を適用して、データのサイズを増加させる。
フェーズ3と4では、エッジコンピューティングシステムのためのViTモデルが開発され、パターンを特定し、画像で見えるユーザの皮膚の皮膚病変を分類する。
フェーズ3では、病変をViTで所望のクラスに分類した後、より説明可能な結果(アクティベーションマップなど)につながる説明可能なAI(XAI)を使用し、高い予測精度を確保します。
皮膚疾患のリアルタイム画像は、モバイルアプリケーションのカメラを用いて、医師または患者によって、早期検査を行い、皮膚病変の原因を決定することができる。
フレームワーク全体が既存の皮膚病変検出フレームワークと比較される。
関連論文リスト
- FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - S-SYNTH: Knowledge-Based, Synthetic Generation of Skin Images [2.79604239303318]
S-SYNTHは知識ベースで適応可能なオープンソーススキンシミュレーションフレームワークである。
我々は、解剖学的にインスパイアされた多層多層皮膚と成長する病変モデルを用いて、合成皮膚、3次元モデル、デジタル化された画像を生成する。
また, 合成データを用いて得られた結果は, 実際の皮膚画像と類似した傾向を示した。
論文 参考訳(メタデータ) (2024-07-31T23:16:29Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - HierAttn: Effectively Learn Representations from Stage Attention and
Branch Attention for Skin Lesions Diagnosis [18.026088450803258]
皮膚がんの早期診断と治療には, 皮膚病変の正確な非バイアス検査が重要である。
最近の研究では、画像の早期診断のための分類のために、アンサンブル畳み込みニューラルネットワーク(CNN)が開発されている。
階層型および自己注意型ニューラルネットワークであるHierAttnを紹介する。
論文 参考訳(メタデータ) (2022-05-09T14:30:34Z) - Classification of Skin Cancer Images using Convolutional Neural Networks [0.0]
皮膚がんは最も一般的なヒト悪性腫瘍である。
ディープニューラルネットワークは、画像分類の謙虚な可能性を示している。
最も高いモデル精度は86.65%以上である。
論文 参考訳(メタデータ) (2022-02-01T17:11:41Z) - Dermoscopic Image Classification with Neural Style Transfer [5.314466196448187]
皮膚病変分類問題に対する新しい画像前処理ステップとして,NST(Neural Style Transfer)の適応を提案する。
各皮膚内視鏡像をスタイル画像として表現し、病変のスタイルを均質なコンテンツ画像に転送します。
これにより、各病変の主な変動を同じ局在領域に転送し、生成された画像を一緒に統合し、潜伏した低ランクスタイルの特徴を抽出します。
論文 参考訳(メタデータ) (2021-05-17T03:50:51Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Analysis of skin lesion images with deep learning [0.0]
内視鏡画像の分類における美術の現状を評価します。
ImageNetデータセットに事前トレーニングされた様々なディープニューラルネットワークアーキテクチャは、組み合わせたトレーニングデータセットに適合する。
皮膚病変の8クラスの検出のためのこれらのモデルの性能と適用性を検討する。
論文 参考訳(メタデータ) (2021-01-11T10:58:36Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。