論文の概要: Unlabeled Data Deployment for Classification of Diabetic Retinopathy
Images Using Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2002.03321v1
- Date: Sun, 9 Feb 2020 09:01:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:43:25.006418
- Title: Unlabeled Data Deployment for Classification of Diabetic Retinopathy
Images Using Knowledge Transfer
- Title(参考訳): 知識伝達を用いた糖尿病網膜症画像分類のためのラベルなしデータ配置
- Authors: Sajjad Abbasi, Mohsen Hajabdollahi, Nader Karimi, Shadrokh Samavi,
Shahram Shirani
- Abstract要約: 転送学習はラベル付きデータの欠如の問題を解決するために用いられる。
知識蒸留は、あるモデルの知識を別のものに移すために最近提案されている。
本稿では,移動学習を用いた新しい知識蒸留法を提案し,モデルの全知識を別の知識に伝達する。
- 参考スコア(独自算出の注目度): 11.031841470875571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) are extensively beneficial for medical
image processing. Medical images are plentiful, but there is a lack of
annotated data. Transfer learning is used to solve the problem of lack of
labeled data and grants CNNs better training capability. Transfer learning can
be used in many different medical applications; however, the model under
transfer should have the same size as the original network. Knowledge
distillation is recently proposed to transfer the knowledge of a model to
another one and can be useful to cover the shortcomings of transfer learning.
But some parts of the knowledge may not be distilled by knowledge distillation.
In this paper, a novel knowledge distillation using transfer learning is
proposed to transfer the whole knowledge of a model to another one. The
proposed method can be beneficial and practical for medical image analysis in
which a small number of labeled data are available. The proposed process is
tested for diabetic retinopathy classification. Simulation results demonstrate
that using the proposed method, knowledge of an extensive network can be
transferred to a smaller model.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は医用画像処理に広く有用である。
医療画像は豊富だが、注釈付きデータが不足している。
転送学習はラベル付きデータ不足の問題を解決するために使用され、CNNにより良いトレーニング能力を与える。
転送学習は多くの異なる医療応用で利用することができるが、転送対象のモデルは元のネットワークと同じサイズでなければならない。
モデル知識を別のモデルに移すための知識蒸留が最近提案されており、転向学習の欠点をカバーするのに有用である。
しかし、知識の一部は知識蒸留によって蒸留されないことがある。
本稿では,モデルの全知識を別の知識に移すために,転送学習を用いた新しい知識蒸留法を提案する。
提案手法は,少数のラベル付きデータが利用可能である医療画像解析において有用かつ実用的なものである。
提案法を糖尿病網膜症分類に適用した。
シミュレーションの結果,提案手法を用いることで,ネットワークの知識をより小さなモデルに移すことができることがわかった。
関連論文リスト
- Pick the Best Pre-trained Model: Towards Transferability Estimation for
Medical Image Segmentation [20.03177073703528]
転送学習は、難しい医用画像分割タスクのために、ディープニューラルネットワークをトレーニングする上で重要なテクニックである。
医用画像セグメンテーションのための新しい転送可能性推定法を提案する。
医用画像のセグメンテーションにおける転送可能性推定のアルゴリズムを網羅した手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T01:58:18Z) - Pre-text Representation Transfer for Deep Learning with Limited
Imbalanced Data : Application to CT-based COVID-19 Detection [18.72489078928417]
我々は、PRT(Pre-text Representation Transfer)という新しい概念を提案する。
PRTは元の分類層を保持し、教師なしのプレテキストタスクを通じて表現層を更新する。
提案手法により,従来の移動学習よりも一貫した効果が得られた。
論文 参考訳(メタデータ) (2023-01-21T04:47:35Z) - Classification of EEG Motor Imagery Using Deep Learning for
Brain-Computer Interface Systems [79.58173794910631]
トレーニングされたT1クラス畳み込みニューラルネットワーク(CNN)モデルを使用して、運動画像の識別を成功させる能力を調べる。
理論的には、モデルが正確にトレーニングされた場合、クラスを特定し、それに従ってラベル付けすることが可能になる。
CNNモデルは復元され、より小さなサンプルデータを使用して同じ種類の運動画像データを特定するために使用される。
論文 参考訳(メタデータ) (2022-05-31T17:09:46Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Classification of Diabetic Retinopathy Using Unlabeled Data and
Knowledge Distillation [10.032419030373399]
提案手法は,モデルの全知識をより小さなモデルに転送する。
ラベルのないデータは教師なしの方法で使われ、知識の最大量を新しいスリムモデルに転送する。
提案手法は,ラベル付きデータが典型的に少ない医療画像解析において有用である。
論文 参考訳(メタデータ) (2020-09-01T07:18:39Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Adversarial Multi-Source Transfer Learning in Healthcare: Application to
Glucose Prediction for Diabetic People [4.17510581764131]
本稿では,複数のソース間で類似した特徴表現の学習を可能にする多元逆変換学習フレームワークを提案する。
完全畳み込みニューラルネットワークを用いた糖尿病患者の血糖予測にこの考え方を適用した。
特に、異なるデータセットのデータを使用したり、あるいはデータセット内の状況にデータが少ない場合に輝く。
論文 参考訳(メタデータ) (2020-06-29T11:17:50Z) - Synergic Adversarial Label Learning for Grading Retinal Diseases via
Knowledge Distillation and Multi-task Learning [29.46896757506273]
良質な医師のアノテート画像は非常に高価であり、様々な網膜疾患に対して限られた量のデータしか利用できない。
一部の研究では、AMDとDRは出血点や吐出などの一般的な特徴を共有しているが、ほとんどの分類アルゴリズムはこれらの疾患モデルを個別に訓練するだけである。
本稿では,関連網膜疾患ラベルを意味的および特徴空間の両方で付加的な信号として活用し,協調的にモデルを訓練するSALL法を提案する。
論文 参考訳(メタデータ) (2020-03-24T01:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。