論文の概要: Generative Transfer Learning: Covid-19 Classification with a few Chest
X-ray Images
- arxiv url: http://arxiv.org/abs/2208.05305v1
- Date: Wed, 10 Aug 2022 12:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:49:45.845995
- Title: Generative Transfer Learning: Covid-19 Classification with a few Chest
X-ray Images
- Title(参考訳): 遺伝子導入学習 : 胸部X線画像を用いたCovid-19分類
- Authors: Suvarna Kadam and Vinay G. Vaidya
- Abstract要約: 深層学習モデルは解釈を迅速化し、人間の専門家の仕事を軽減することができる。
Deep Transfer Learningは、パブリックドメインで事前訓練されたモデルを使用することで、この問題に対処する。
本稿では,既存の大規模事前学習モデルと同様に,単一の概念に基づいて事前学習した簡易な生成源モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detection of diseases through medical imaging is preferred due to its
non-invasive nature. Medical imaging supports multiple modalities of data that
enable a thorough and quick look inside a human body. However, interpreting
imaging data is often time-consuming and requires a great deal of human
expertise. Deep learning models can expedite interpretation and alleviate the
work of human experts. However, these models are data-intensive and require
significant labeled images for training. During novel disease outbreaks such as
Covid-19, we often do not have the required labeled imaging data, especially at
the start of the epidemic. Deep Transfer Learning addresses this problem by
using a pretrained model in the public domain, e.g. any variant of either
VGGNet, ResNet, Inception, DenseNet, etc., as a feature learner to quickly
adapt the target task from fewer samples. Most pretrained models are deep with
complex architectures. They are trained with large multi-class datasets such as
ImageNet, with significant human efforts in architecture design and hyper
parameters tuning. We presented 1 a simpler generative source model, pretrained
on a single but related concept, can perform as effectively as existing larger
pretrained models. We demonstrate the usefulness of generative transfer
learning that requires less compute and training data, for Few Shot Learning
(FSL) with a Covid-19 binary classification use case. We compare classic deep
transfer learning with our approach and also report FSL results with three
settings of 84, 20, and 10 training samples. The model implementation of
generative FSL for Covid-19 classification is available publicly at
https://github.com/suvarnak/GenerativeFSLCovid.git.
- Abstract(参考訳): 非侵襲性のため、医用画像による疾患の検出が好ましい。
医療画像は、人間の体内を徹底的に素早く見ることができる複数のデータモダリティをサポートする。
しかし、画像データの解釈には時間がかかることが多く、人間の専門知識が必要となる。
深層学習モデルは解釈を迅速化し、人間の専門家の仕事を軽減することができる。
しかし、これらのモデルはデータ集約型であり、トレーニングにはかなりのラベル付き画像が必要である。
Covid-19のような新しい病気の流行では、特に流行の開始時に、必要なラベル付き画像データを持っていないことが多い。
例えば、vggnet, resnet, inception, densenetなどのいずれかの変種を特徴学習器として使用することで、より少ないサンプルからターゲットタスクを迅速に適応させることで、この問題に対処する。
事前訓練されたほとんどのモデルは、複雑なアーキテクチャで深い。
それらはimagenetのような大規模なマルチクラスデータセットでトレーニングされ、アーキテクチャ設計とハイパーパラメータチューニングにおいて重要な人的努力をしている。
我々は,既存の大規模事前学習モデルと同じくらい効果的に動作可能な,単一だが関連する概念に基づいて事前学習された簡易な生成源モデルを提案する。
本研究では,Covid-19バイナリ分類を用いたFSL(Few Shot Learning)において,計算とトレーニングの少ない生成的トランスファー学習の有用性を示す。
従来のディープトランスファー学習とアプローチを比較し,fslの結果を84,20,10のトレーニングサンプルの3つの設定で報告した。
Covid-19分類のための生成FSLのモデル実装はhttps://github.com/suvarnak/GenerativeFSLCovid.gitで公開されている。
関連論文リスト
- Learned representation-guided diffusion models for large-image
generation [60.698616089211505]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Pre-text Representation Transfer for Deep Learning with Limited
Imbalanced Data : Application to CT-based COVID-19 Detection [18.72489078928417]
我々は、PRT(Pre-text Representation Transfer)という新しい概念を提案する。
PRTは元の分類層を保持し、教師なしのプレテキストタスクを通じて表現層を更新する。
提案手法により,従来の移動学習よりも一貫した効果が得られた。
論文 参考訳(メタデータ) (2023-01-21T04:47:35Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Few-Shot Transfer Learning to improve Chest X-Ray pathology detection
using limited triplets [0.0]
ディープラーニングアプローチは、多くの診断タスクにおいて、ほぼ人間に近い、あるいは人間に近いパフォーマンスに達している。
本稿では,Few-Shot Learningによる事前学習モデルの予測を改善するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T15:44:56Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - A Comprehensive Study on Torchvision Pre-trained Models for Fine-grained
Inter-species Classification [12.917749344429524]
本研究の目的は,PyTorchライブラリで利用可能なTorchvisionパッケージで提供される,さまざまな事前学習モデルを検討することである。
猿10種, 鳥225種, 果実360種, オックスフォード102花の4つの異なるデータセット上で, 事前学習したTorchvisionモデルについて検討した。
また、SpinalNetの有効性を検討するために、通常の完全接続層とSpinal完全接続層を適用した。
論文 参考訳(メタデータ) (2021-10-14T00:36:02Z) - One Representative-Shot Learning Using a Population-Driven Template with
Application to Brain Connectivity Classification and Evolution Prediction [0.0]
グラフニューラルネットワーク(GNN)は、ネットワーク神経科学の分野に導入されている。
私たちは、GNNのトレーニングにおいて、まったく異なるアプローチを取っています。
我々は、GNNが単一集団駆動型テンプレートで訓練される最初のワンショットパラダイムを示す。
論文 参考訳(メタデータ) (2021-10-06T08:36:00Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。