論文の概要: Self-Supervised Learning Featuring Small-Scale Image Dataset for Treatable Retinal Diseases Classification
- arxiv url: http://arxiv.org/abs/2404.10166v1
- Date: Mon, 15 Apr 2024 22:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 18:41:41.608600
- Title: Self-Supervised Learning Featuring Small-Scale Image Dataset for Treatable Retinal Diseases Classification
- Title(参考訳): 治療可能な網膜疾患分類のための小型画像データセットを用いた自己監督学習
- Authors: Luffina C. Huang, Darren J. Chiu, Manish Mehta,
- Abstract要約: Self-Supervised Learning (SSL)はTransfer Learning (TL)の優れた代替品であり、不均衡な画像データセットに適している。
そこで本研究では,光学コヒーレンス・トモグラフィー(OCT)画像を用いた治療性網膜疾患分類における4つの事前訓練型SSLモデルと2つのTLモデルの評価を行った。
提案したSSLモデルは、4000のトレーニング画像のみを使用して98.84%の最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated medical diagnosis through image-based neural networks has increased in popularity and matured over years. Nevertheless, it is confined by the scarcity of medical images and the expensive labor annotation costs. Self-Supervised Learning (SSL) is an good alternative to Transfer Learning (TL) and is suitable for imbalanced image datasets. In this study, we assess four pretrained SSL models and two TL models in treatable retinal diseases classification using small-scale Optical Coherence Tomography (OCT) images ranging from 125 to 4000 with balanced or imbalanced distribution for training. The proposed SSL model achieves the state-of-art accuracy of 98.84% using only 4,000 training images. Our results suggest the SSL models provide superior performance under both the balanced and imbalanced training scenarios. The SSL model with MoCo-v2 scheme has consistent good performance under the imbalanced scenario and, especially, surpasses the other models when the training set is less than 500 images.
- Abstract(参考訳): 画像ベースニューラルネットワークによる医療診断の自動化は、長年にわたって人気を博し、成熟してきた。
それにもかかわらず、医療画像の不足と高価な労働アノテーションコストに制限されている。
Self-Supervised Learning (SSL)はTransfer Learning (TL)の優れた代替品であり、不均衡な画像データセットに適している。
そこで本研究では, 125から4000の小型光コヒーレンス・トモグラフィー(OCT)画像を用いて, 治療可能な網膜疾患の分類において, 4つの事前訓練されたSSLモデルと2つのTLモデルを評価する。
提案したSSLモデルは、4000のトレーニング画像のみを使用して98.84%の最先端の精度を達成する。
この結果からSSLモデルは,バランスの取れたトレーニングシナリオとバランスの取れないトレーニングシナリオの両方において,優れたパフォーマンスを実現することが示唆された。
MoCo-v2スキームによるSSLモデルは、不均衡なシナリオ下で一貫した優れたパフォーマンスを持ち、特にトレーニングセットが500イメージ未満の場合には、他のモデルを上回る。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Navigating Data Scarcity using Foundation Models: A Benchmark of Few-Shot and Zero-Shot Learning Approaches in Medical Imaging [1.533133219129073]
データ不足は、現代の機械学習技術を臨床タスクに適用するための大きな制限要因である。
我々は,19種類の医用画像データセットを用いた16の事前訓練基礎モデルを用いて,少数ショット学習とゼロショット学習のベンチマーク研究を行った。
以上の結果から,医療データのみに事前訓練されたBiomedCLIPは,非常に小さなトレーニングセットサイズにおいて,平均して最高の成績を示した。
論文 参考訳(メタデータ) (2024-08-15T09:55:51Z) - Self-supervised learning improves robustness of deep learning lung tumor segmentation to CT imaging differences [7.332652485849634]
自己教師付き学習(SSL)は、ラベルのないデータから有用な特徴表現を抽出する手法である。
我々は,Wild vs self-pretrained transformer (ViT) と階層型シフトウインドウ (Swin) モデルのロバストさとCT画像の違いを比較した。
肺腫瘍の分画におけるCT像像の違いは, 自己前置法よりも, 野生前置型ネットワークの方が, より堅牢であった。
論文 参考訳(メタデータ) (2024-05-14T14:35:21Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - AnoMalNet: Outlier Detection based Malaria Cell Image Classification
Method Leveraging Deep Autoencoder [0.0]
クラス不均衡の最も極端な場合にも対応できる,オフレイヤ検出に基づくバイナリ医用画像分類手法を提案する。
AnoMalNetという名前のオートエンコーダモデルは、最初は感染していない細胞イメージのみで訓練されている。
精度、精度、リコール、F1スコアはそれぞれ98.49%、97.07%、100%、98.52%に達した。
論文 参考訳(メタデータ) (2023-03-10T08:49:31Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Benchmarking Self-Supervised Learning on Diverse Pathology Datasets [10.868779327544688]
自己教師付き学習は、ラベルのないデータを活用する効果的な方法であることが示されている。
我々は、病理画像データに基づいてSSL事前トレーニングを行う最大規模の研究を行う。
核インスタンスセグメンテーションの課題に対してSSLを初めて適用する。
論文 参考訳(メタデータ) (2022-12-09T06:38:34Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - Few-Shot Transfer Learning to improve Chest X-Ray pathology detection
using limited triplets [0.0]
ディープラーニングアプローチは、多くの診断タスクにおいて、ほぼ人間に近い、あるいは人間に近いパフォーマンスに達している。
本稿では,Few-Shot Learningによる事前学習モデルの予測を改善するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T15:44:56Z) - Alleviating the Incompatibility between Cross Entropy Loss and Episode
Training for Few-shot Skin Disease Classification [76.89093364969253]
そこで本研究では,皮膚疾患の診断にFew-Shot Learningを応用し,トレーニングサンプル問題の極端な不足に対処することを提案する。
本稿では, エピソード学習において, クロスエントロピー(CE)よりも優れたクエリ-相対的損失(QR)を提案する。
さらに,新しい適応型ハードマージン戦略により,提案したQR損失をさらに強化する。
論文 参考訳(メタデータ) (2020-04-21T00:57:11Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。