論文の概要: Self-Learning AI Framework for Skin Lesion Image Segmentation and
Classification
- arxiv url: http://arxiv.org/abs/2001.05838v1
- Date: Sat, 4 Jan 2020 09:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 12:49:50.608835
- Title: Self-Learning AI Framework for Skin Lesion Image Segmentation and
Classification
- Title(参考訳): 皮膚病変画像分割・分類のための自己学習型AIフレームワーク
- Authors: Anandhanarayanan Kamalakannan, Shiva Shankar Ganesan and Govindaraj
Rajamanickam
- Abstract要約: 深層学習モデルで医用画像セグメンテーションを行うには、アノテーションによる大規模な画像データセットのトレーニングが必要である。
この問題を解決するために,2段階のディープラーニングアルゴリズムにおいて自己学習アノテーションスキームが提案された。
提案されたAIフレームワークの分類結果は、トレーニング精度93.8%、テスト精度82.42%を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image segmentation and classification are the two main fundamental steps in
pattern recognition. To perform medical image segmentation or classification
with deep learning models, it requires training on large image dataset with
annotation. The dermoscopy images (ISIC archive) considered for this work does
not have ground truth information for lesion segmentation. Performing manual
labelling on this dataset is time-consuming. To overcome this issue,
self-learning annotation scheme was proposed in the two-stage deep learning
algorithm. The two-stage deep learning algorithm consists of U-Net segmentation
model with the annotation scheme and CNN classifier model. The annotation
scheme uses a K-means clustering algorithm along with merging conditions to
achieve initial labelling information for training the U-Net model. The
classifier models namely ResNet-50 and LeNet-5 were trained and tested on the
image dataset without segmentation for comparison and with the U-Net
segmentation for implementing the proposed self-learning Artificial
Intelligence (AI) framework. The classification results of the proposed AI
framework achieved training accuracy of 93.8% and testing accuracy of 82.42%
when compared with the two classifier models directly trained on the input
images.
- Abstract(参考訳): 画像分割と分類は、パターン認識における2つの主要な基本ステップである。
深層学習モデルで医用画像のセグメンテーションや分類を行うには、アノテーションによる大規模な画像データセットのトレーニングが必要である。
本研究を対象とする皮膚内視鏡画像(ISICアーカイブ)には,病変の分節に関する真実情報がない。
このデータセットで手動ラベリングを実行するのに時間がかかる。
この問題を解決するために,2段階のディープラーニングアルゴリズムにおいて自己学習アノテーションスキームが提案された。
2段階のディープラーニングアルゴリズムは、アノテーションスキームとCNN分類器モデルを備えたU-Netセグメンテーションモデルからなる。
アノテーションスキームは、K平均クラスタリングアルゴリズムとマージ条件を用いて、U-Netモデルをトレーニングするための初期ラベリング情報を達成する。
ResNet-50とLeNet-5という分類器モデルは、比較のためのセグメンテーションや、提案された自己学習人工知能(AI)フレームワークを実装するためのU-Netセグメンテーションを使わずに、画像データセット上で訓練され、テストされた。
提案するaiフレームワークの分類結果は、入力画像上で直接トレーニングされた2つの分類器モデルと比較して、93.8%のトレーニング精度と82.42%のテスト精度を達成している。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Annotation Cost-Efficient Active Learning for Deep Metric Learning Driven Remote Sensing Image Retrieval [3.2109665109975696]
ANNEALは、類似した、異種のイメージペアで構成された、小さくて情報的なトレーニングセットを作成することを目的としている。
不確実性と多様性の基準を組み合わせることにより、画像対の情報性を評価する。
このアノテート方式は、ランド・ユース・ランド・カバー・クラスラベルによるアノテート画像と比較して、アノテーションコストを著しく削減する。
論文 参考訳(メタデータ) (2024-06-14T15:08:04Z) - Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。