論文の概要: Improving Medical Image Classification in Noisy Labels Using Only
Self-supervised Pretraining
- arxiv url: http://arxiv.org/abs/2308.04551v1
- Date: Tue, 8 Aug 2023 19:45:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 16:12:27.278869
- Title: Improving Medical Image Classification in Noisy Labels Using Only
Self-supervised Pretraining
- Title(参考訳): 自己教師付き事前訓練による雑音ラベルの医用画像分類の改善
- Authors: Bidur Khanal, Binod Bhattarai, Bishesh Khanal, Cristian A. Linte
- Abstract要約: ノイズラベルが深層学習に基づく教師付き画像分類性能を損なうのは、モデルがノイズに過度に適合し、劣化した特徴抽出器を学習するためである。
そこで本研究では,自己誘発ノイズラベルを持つ2つの医療データセットを対象とした,深層学習分類モデルの重み付けを初期化するための,コントラスト的,プレテキストなタスクベース自己教師型事前訓練について検討する。
その結果,自己教師付き学習から得られた事前学習重み付きモデルは,より優れた特徴を効果的に学習し,ノイズラベルに対する堅牢性を向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 9.01547574908261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy labels hurt deep learning-based supervised image classification
performance as the models may overfit the noise and learn corrupted feature
extractors. For natural image classification training with noisy labeled data,
model initialization with contrastive self-supervised pretrained weights has
shown to reduce feature corruption and improve classification performance.
However, no works have explored: i) how other self-supervised approaches, such
as pretext task-based pretraining, impact the learning with noisy label, and
ii) any self-supervised pretraining methods alone for medical images in noisy
label settings. Medical images often feature smaller datasets and subtle inter
class variations, requiring human expertise to ensure correct classification.
Thus, it is not clear if the methods improving learning with noisy labels in
natural image datasets such as CIFAR would also help with medical images. In
this work, we explore contrastive and pretext task-based self-supervised
pretraining to initialize the weights of a deep learning classification model
for two medical datasets with self-induced noisy labels -- NCT-CRC-HE-100K
tissue histological images and COVID-QU-Ex chest X-ray images. Our results show
that models initialized with pretrained weights obtained from self-supervised
learning can effectively learn better features and improve robustness against
noisy labels.
- Abstract(参考訳): ノイズラベルが深層学習に基づく教師付き画像分類性能を損なうのは、モデルがノイズに過度に適合し、劣化した特徴抽出器を学習するためである。
ノイズラベル付きデータを用いた自然画像分類訓練では,自己教師あり重みによるモデル初期化が特徴破壊の低減と分類性能の向上に寄与している。
しかし、研究は行われていない。
一 プレテキストタスクベースの事前学習のような他の自己指導的アプローチが騒音ラベルによる学習に与える影響
二 騒々しいラベル設定の医用画像に対して単独の自己監督事前訓練方法
医療画像は、しばしばより小さなデータセットと微妙なクラス間変異を特徴とし、正確な分類を保証するために人間の専門知識を必要とする。
したがって、CIFARのような自然画像データセットにおけるノイズラベルによる学習を改善する手法が医療画像にも役立つかどうかは不明である。
本研究は,NCT-CRC-HE-100K組織組織像とCOVID-QU-Ex胸部X線画像を用いた2つの医学データセットの深層学習分類モデルの重み付けを初期化するために,コントラッシブでプレトレーニングされたタスクベースの自己教師付きプレトレーニングについて検討する。
その結果,自己教師付き学習から得られた事前学習重みで初期化したモデルでは,より優れた特徴を効果的に学習し,雑音ラベルに対する頑健性を向上させることができた。
関連論文リスト
- Label-noise-tolerant medical image classification via self-attention and
self-supervised learning [5.6827706625306345]
医用画像分類におけるノイズラベルの悪影響を軽減するためのノイズローバストトレーニング手法を提案する。
具体的には、コントラスト学習とグループ内注意混合戦略をバニラ指導学習に取り入れる。
コントラスト学習とアテンション・ミックスアップによるノイズ・ロバスト手法がラベルノイズを効果的に扱えるかどうかを厳密な実験により検証した。
論文 参考訳(メタデータ) (2023-06-16T09:37:16Z) - Seamless Iterative Semi-Supervised Correction of Imperfect Labels in
Microscopy Images [57.42492501915773]
生体内試験は、医療機器の毒性に対する動物実験の代替手段である。
人間の疲労は、深層学習を魅力的なものにするために、エラー作成に重要な役割を果たします。
我々は、不完全ラベルのシームレス反復半監督補正(SISSI)を提案する。
本手法は,物体検出に適応的な早期学習補正技術を提供する。
論文 参考訳(メタデータ) (2022-08-05T18:52:20Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Deep Image Retrieval is not Robust to Label Noise [0.0]
画像分類法は,画像分類法よりもラベルノイズに対する頑健さが低いことを示す。
画像検索タスクに特有なラベルノイズの種類を初めて検討した。
論文 参考訳(メタデータ) (2022-05-23T11:04:09Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Self-Paced Contrastive Learning for Semi-supervisedMedical Image
Segmentation with Meta-labels [6.349708371894538]
メタラベルアノテーションを扱うために、コントラスト学習を適用することを提案する。
画像エンコーダの事前トレーニングにはメタラベルを使用し、半教師付きトレーニングを標準化する。
3つの異なる医用画像セグメンテーションデータセットの結果から,本手法は数回のスキャンでトレーニングしたモデルの性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2021-07-29T04:30:46Z) - Noisy Label Learning for Large-scale Medical Image Classification [37.79118840129632]
我々は,最先端のノイズラベルマルチクラストレーニングアプローチを適用し,データセットの胸部x線14のマルチラベル分類器を学習する。
Chest X-ray14 のラベルノイズの大半が 'No Finding' クラスに存在することを示し、これはラベルミスによる 14 疾患の 1 つ以上を含む可能性が高いクラスであるため直感的に正しい。
論文 参考訳(メタデータ) (2021-03-06T07:42:36Z) - Improving Medical Image Classification with Label Noise Using
Dual-uncertainty Estimation [72.0276067144762]
医用画像における2種類のラベルノイズについて論じ,定義する。
医用画像分類作業中にこれら2つのラベルノイズを処理する不確実性推定に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-28T14:56:45Z) - Annotation-Efficient Learning for Medical Image Segmentation based on
Noisy Pseudo Labels and Adversarial Learning [12.781598229608983]
医療画像セグメンテーションのためのアノテーション効率の高い学習フレームワークを提案する。
我々は、改良されたサイクル一貫性生成適応ネットワーク(GAN)を用いて、障害のない医療画像と補助マスクのセットから学習する。
基礎画像の光学ディスクや超音波画像の胎児頭部のような単純な形状の物体、X線画像の肺やCT画像の肝臓のような複雑な構造、という2つの状況で、我々の枠組みを検証した。
論文 参考訳(メタデータ) (2020-12-29T03:22:41Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。