論文の概要: Self-supervised Mean Teacher for Semi-supervised Chest X-ray
Classification
- arxiv url: http://arxiv.org/abs/2103.03629v1
- Date: Fri, 5 Mar 2021 12:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 19:06:49.430226
- Title: Self-supervised Mean Teacher for Semi-supervised Chest X-ray
Classification
- Title(参考訳): 半監督胸部X線分類のための自己監督平均教師
- Authors: Fengbei Liu, Yu Tian, Filipe R. Cordeiro, Vasileios Belagiannis, Ian
Reid, Gustavo Carneiro
- Abstract要約: 半指導型学習のための自己指導型平均教師を提案します。
自己指導型平均教師養成と半監督型微調整を併用する。
従来のSOTAの半教師付き学習法を大幅マージンで上回っていることを示す。
- 参考スコア(独自算出の注目度): 37.79118840129632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The training of deep learning models generally requires a large amount of
annotated data for effective convergence and generalisation. However, obtaining
high-quality annotations is a laboursome and expensive process due to the need
of expert radiologists for the labelling task. The study of semi-supervised
learning in medical image analysis is then of crucial importance given that it
is much less expensive to obtain unlabelled images than to acquire images
labelled by expert radiologists.Essentially, semi-supervised methods leverage
large sets of unlabelled data to enable better training convergence and
generalisation than if we use only the small set of labelled images.In this
paper, we propose the Self-supervised Mean Teacher for Semi-supervised
(S$^2$MTS$^2$) learning that combines self-supervised mean-teacher pre-training
with semi-supervised fine-tuning. The main innovation of S$^2$MTS$^2$ is the
self-supervised mean-teacher pre-training based on the joint contrastive
learning, which uses an infinite number of pairs of positive query and key
features to improve the mean-teacher representation. The model is then
fine-tuned using the exponential moving average teacher framework trained with
semi-supervised learning.We validate S$^2$MTS$^2$ on the thorax disease
multi-label classification problem from the dataset Chest X-ray14, where we
show that it outperforms the previous SOTA semi-supervised learning methods by
a large margin.
- Abstract(参考訳): ディープラーニングモデルのトレーニングは通常、効果的な収束と一般化のために大量の注釈データを必要とする。
しかし,良質なアノテーションを得ることは,ラベリング作業に専門家の放射線科医が必要となるため,手間と費用がかかる作業である。
The study of semi-supervised learning in medical image analysis is then of crucial importance given that it is much less expensive to obtain unlabelled images than to acquire images labelled by expert radiologists.Essentially, semi-supervised methods leverage large sets of unlabelled data to enable better training convergence and generalisation than if we use only the small set of labelled images.In this paper, we propose the Self-supervised Mean Teacher for Semi-supervised (S$^2$MTS$^2$) learning that combines self-supervised mean-teacher pre-training with semi-supervised fine-tuning.
s$^2$mts$^2$の主な革新は、無限個の正の問合せと重要な特徴を用いて平均教師表現を改善するジョイントコントラスト学習に基づく自己教師付き平均教師事前学習である。
このモデルは,半教師学習で訓練された指数的移動平均教師フレームワークを用いて微調整され,データセットChest X-ray14の胸部疾患の多ラベル分類問題に対するS$^2$MTS$^2$の検証を行った。
関連論文リスト
- One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - An End-to-End Framework For Universal Lesion Detection With Missing
Annotations [24.902835211573628]
そこで本研究では,検出器を同時に訓練しながら,ラベルのない病変をマイニングするための新しいエンドツーエンドフレームワークを提案する。
本研究の枠組みは,高信頼度予測と,学生モデル学習のための部分的にラベル付けされた基礎的真理が組み合わさっている。
論文 参考訳(メタデータ) (2023-03-27T09:16:10Z) - Consistency-Based Semi-supervised Evidential Active Learning for
Diagnostic Radiograph Classification [2.3545156585418328]
CSEAL(Consistency-based Semi-supervised Evidential Active Learning)フレームワークについて紹介する。
我々は、証拠理論と主観的論理に基づく予測の不確実性を利用して、エンドツーエンドの統合アプローチを開発する。
本手法は, ラベル付きサンプルを少なくして, より稀な異常の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-09-05T09:28:31Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Semi-supervised classification of radiology images with NoTeacher: A
Teacher that is not Mean [10.880392855729552]
一貫性に基づく半教師付き学習フレームワークであるNoTeacherを紹介する。
NoTeacherは2つの独立したネットワークを採用しており、教師ネットワークの必要性を排除している。
我々は,NoTeacherが5~15%未満のラベル付予算で,フル教師付きAUROCの90~95%以上を達成していることを示す。
論文 参考訳(メタデータ) (2021-08-10T03:08:35Z) - Self-supervised driven consistency training for annotation efficient
histopathology image analysis [13.005873872821066]
大きなラベル付きデータセットでニューラルネットワークをトレーニングすることは、計算病理学において依然として支配的なパラダイムである。
本研究では,非教師付き表現学習のための強力な監視信号を学ぶために,ヒストロジ全体スライディング画像の背景となる多段階的文脈的手がかりを利用する自己教師付きプレテキストタスクを提案する。
また,タスク固有の未ラベルデータとの予測整合性に基づいて,事前学習した表現を下流タスクに効果的に転送することを学ぶ教師による半教師付き一貫性パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-07T19:46:21Z) - Neural Semi-supervised Learning for Text Classification Under
Large-Scale Pretraining [51.19885385587916]
我々は、大規模LM事前学習の文脈下で、テキスト分類タスクにおける半教師あり学習の研究を行う。
我々の研究は、大規模事前学習の文脈下でのセミ教師付き学習モデルの振る舞いを理解するための最初のステップである。
論文 参考訳(メタデータ) (2020-11-17T13:39:05Z) - Dual-Teacher: Integrating Intra-domain and Inter-domain Teachers for
Annotation-efficient Cardiac Segmentation [65.81546955181781]
本稿では,新しい半教師付きドメイン適応手法,すなわちDual-Teacherを提案する。
学生モデルは、2つの教師モデルによってラベル付けされていない対象データとラベル付けされた情報源データの知識を学習する。
提案手法では, ラベルなしデータとモダリティ間データとを並列に利用でき, 性能が向上することを示した。
論文 参考訳(メタデータ) (2020-07-13T10:00:44Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - Partly Supervised Multitask Learning [19.64371980996412]
胸部X線データを用いた実験結果から,S$4$MTLモデルは半教師付き単一タスク,半教師付きマルチタスク,完全教師付き単一タスクモデルよりも優れていたことが示唆された。
提案手法は, 医用画像領域だけでなく, 汎用視覚タスクにも有効である, という仮説を立てる。
論文 参考訳(メタデータ) (2020-05-05T22:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。