論文の概要: One-Vote Veto: Semi-Supervised Learning for Low-Shot Glaucoma Diagnosis
- arxiv url: http://arxiv.org/abs/2012.04841v3
- Date: Fri, 26 Mar 2021 20:32:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:17:44.442389
- Title: One-Vote Veto: Semi-Supervised Learning for Low-Shot Glaucoma Diagnosis
- Title(参考訳): One-Vote Veto:ローショット緑内障診断のための半教師付き学習
- Authors: Rui Fan, Christopher Bowd, Nicole Brye, Mark Christopher, Robert N.
Weinreb, David Kriegman, Linda Zangwill
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は,眼底画像から緑内障を自動診断するための有望な手法である。
CNNは通常、多くのバイオメディカル画像分類アプリケーションでは利用できないトレーニングに大量のラベル付きデータを必要とします。
本論文では,(1)従来の双子ニューラルネットワークを拡張し,ラベル付きデータに制限や不均衡がある場合に,低ショット学習のためのトレーニング手法を導入すること,(2)ラベルなしのトレーニングデータを追加して精度を高める,新たな半教師付き学習戦略を導入すること,の2つの課題に貢献した。
- 参考スコア(独自算出の注目度): 4.136081969177565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) are a promising technique for automated
glaucoma diagnosis from images of the fundus, and these images are routinely
acquired as part of an ophthalmic exam. Nevertheless, CNNs typically require a
large amount of well-labeled data for training, which may not be available in
many biomedical image classification applications, especially when diseases are
rare and where labeling by experts is costly.
This paper makes two contributions to address this issue: (1) It extends the
conventional twin neural network and introduces a training method for low-shot
learning when labeled data are limited and imbalanced, and (2) it introduces a
novel semi-supervised learning strategy that uses additional unlabeled training
data to achieve greater accuracy. Our proposed multi-task twin neural network
(MTTNN) can employ any backbone CNN, and we demonstrate with four backbone CNNs
that its accuracy with limited training data approaches the accuracy of
backbone CNNs trained with a dataset that is 50 times larger. We also introduce
One-Vote Veto (OVV) self-training, a semi-supervised learning strategy that is
designed specifically for MTTNNs. By taking both self-predictions and
contrastive-predictions of the unlabeled training data into account, OVV
self-training provides additional pseudo labels for fine tuning a pretrained
MTTNN. Using a large (imbalanced) dataset with 66715 fundus photographs
acquired over 15 years, extensive experimental results demonstrate the
effectiveness of low-shot learning with MTTNN and semi-supervised learning with
OVV self-training. Three additional, smaller clinical datasets of fundus images
acquired under different conditions (cameras, instruments, locations,
populations) are used to demonstrate the generalizability of the proposed
methods. Source code and pretrained models will be publicly available upon
publication.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は眼底の画像から緑内障を自動的に診断する有望な技術であり、眼科検査の一環として日常的に取得される。
それにもかかわらず、CNNは通常、多くのバイオメディカル画像分類アプリケーションでは利用できない、特に病気が稀で専門家によるラベル付けがコストがかかるような、十分なラベル付きデータを必要とする。
本稿では,(1)従来のツインニューラルネットを拡張し,ラベル付きデータが限定的かつ不均衡な場合の低ショット学習の訓練方法,(2)ラベルなしの学習データを追加して精度を高めるための新しい半教師付き学習戦略を提案する。
提案したマルチタスクツインニューラルネットワーク(MTTNN)は,任意のバックボーンCNNを使用することが可能であり,限られたトレーニングデータの精度が,50倍のデータセットでトレーニングされたバックボーンCNNの精度に近づくことを示す。
また、NTTNN用に特別に設計された半教師付き学習戦略であるOne-Vote Veto(OVV)自己学習についても紹介する。
ラベルなしトレーニングデータの自己予測とコントラスト予測の両方を考慮に入れることで、OVV自己学習は事前訓練されたMTTNNを微調整するための追加の擬似ラベルを提供する。
15年以上にわたって取得された66715基の写真を含む大規模な(不均衡な)データセットを用いて、MTTNNによる低撮影学習とOVVによる半教師学習の有効性を実験的に実証した。
異なる条件(カメラ,機器,場所,人口)で取得した眼底画像の3つのより小さな臨床データセットを用いて,提案手法の一般化可能性を示す。
ソースコードと事前訓練されたモデルは、公開時に公開される。
関連論文リスト
- Applications of Sequential Learning for Medical Image Classification [0.13191970195165517]
我々は,少量の医用画像データの連続的トレーニングのためのニューラルネットワークトレーニングフレームワークを開発した。
過度な適合、破滅的な忘れ、概念の漂流といった、逐次学習を妨げる問題に対処する。
論文 参考訳(メタデータ) (2023-09-26T00:46:25Z) - Self-Supervised Pre-Training with Contrastive and Masked Autoencoder
Methods for Dealing with Small Datasets in Deep Learning for Medical Imaging [8.34398674359296]
医用画像の深層学習は、診断ミスのリスクを最小限に抑え、放射線医の作業量を減らし、診断を加速する可能性がある。
このようなディープラーニングモデルのトレーニングには,すべてのトレーニングサンプルに対するアノテーションを備えた,大規模かつ正確なデータセットが必要です。
この課題に対処するために、ディープラーニングモデルは、自己教師付き学習の分野からのメソッドを使用してアノテーションなしで、大規模な画像データセット上で事前トレーニングすることができる。
論文 参考訳(メタデータ) (2023-08-12T11:31:01Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - One Representative-Shot Learning Using a Population-Driven Template with
Application to Brain Connectivity Classification and Evolution Prediction [0.0]
グラフニューラルネットワーク(GNN)は、ネットワーク神経科学の分野に導入されている。
私たちは、GNNのトレーニングにおいて、まったく異なるアプローチを取っています。
我々は、GNNが単一集団駆動型テンプレートで訓練される最初のワンショットパラダイムを示す。
論文 参考訳(メタデータ) (2021-10-06T08:36:00Z) - About Explicit Variance Minimization: Training Neural Networks for
Medical Imaging With Limited Data Annotations [2.3204178451683264]
VAT(Variance Aware Training)法は、モデル損失関数に分散誤差を導入することにより、この特性を利用する。
多様な領域から得られた3つの医用画像データセットと様々な学習目標に対するVATの有効性を検証した。
論文 参考訳(メタデータ) (2021-05-28T21:34:04Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Self-Loop Uncertainty: A Novel Pseudo-Label for Semi-Supervised Medical
Image Segmentation [30.644905857223474]
本稿では,医療画像セグメンテーションのためのラベル付きデータと大量のラベル付き画像を用いて,ニューラルネットワークを訓練するための半教師付きアプローチを提案する。
未ラベル画像に対する新たな擬似ラベル(いわゆる自己ループ不確実性)を基盤として、トレーニングセットを増強し、セグメンテーション精度を高める。
論文 参考訳(メタデータ) (2020-07-20T02:52:07Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。