論文の概要: How does self-supervised pretraining improve robustness against noisy
labels across various medical image classification datasets?
- arxiv url: http://arxiv.org/abs/2401.07990v1
- Date: Mon, 15 Jan 2024 22:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:50:21.717021
- Title: How does self-supervised pretraining improve robustness against noisy
labels across various medical image classification datasets?
- Title(参考訳): 各種医用画像分類データセット間のノイズラベルに対する自己教師付き事前訓練は、どのように堅牢性を改善するか?
- Authors: Bidur Khanal, Binod Bhattarai, Bishesh Khanal, Cristian Linte
- Abstract要約: ノイズラベルは、特にディープラーニングにおいて、医療画像の分類に大きな影響を及ぼす可能性がある。
ラベル付きデータに依存しない自己教師付き事前トレーニングは、ノイズのあるラベルに対する堅牢性を高めることができる。
以上の結果から,DermNetは5つのデータセットの中で最も難易度が高いが,ノイズのあるラベルに対して強い堅牢性を示すことがわかった。
- 参考スコア(独自算出の注目度): 9.371321044764624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy labels can significantly impact medical image classification,
particularly in deep learning, by corrupting learned features. Self-supervised
pretraining, which doesn't rely on labeled data, can enhance robustness against
noisy labels. However, this robustness varies based on factors like the number
of classes, dataset complexity, and training size. In medical images, subtle
inter-class differences and modality-specific characteristics add complexity.
Previous research hasn't comprehensively explored the interplay between
self-supervised learning and robustness against noisy labels in medical image
classification, considering all these factors. In this study, we address three
key questions: i) How does label noise impact various medical image
classification datasets? ii) Which types of medical image datasets are more
challenging to learn and more affected by label noise? iii) How do different
self-supervised pretraining methods enhance robustness across various medical
image datasets? Our results show that DermNet, among five datasets (Fetal
plane, DermNet, COVID-DU-Ex, MURA, NCT-CRC-HE-100K), is the most challenging
but exhibits greater robustness against noisy labels. Additionally, contrastive
learning stands out among the eight self-supervised methods as the most
effective approach to enhance robustness against noisy labels.
- Abstract(参考訳): ノイズラベルは、特にディープラーニングにおいて、学習した特徴を損なうことによって、医療画像の分類に大きな影響を与える可能性がある。
ラベル付きデータに依存しない自己教師付き事前トレーニングは、ノイズの多いラベルに対する堅牢性を高めることができる。
しかし、この堅牢性は、クラスの数、データセットの複雑さ、トレーニングサイズなどによって異なる。
医学画像では、微妙なクラス間差とモダリティ特有の特徴が複雑さを増す。
これまでの研究では、医療画像分類における自己教師あり学習と雑音ラベルに対する頑健性との相互作用を、これらすべての要因を考慮して包括的に検討していない。
本研究は3つの重要な疑問に答える。
一 ラベルノイズが各種医用画像分類データセットにどのような影響を及ぼすか。
ii)どの種類の医療画像データセットが学習が困難でラベルノイズの影響を受けやすいか。
三 各種医用画像データセットの堅牢性を高めるための自己指導型事前訓練方法
以上の結果から,DermNetは5つのデータセット(Fetal plane, DermNet, COVID-DU-Ex, mura, NCT-CRC-HE-100K)の中で最も難易度が高いが,ノイズのあるラベルに対して強い堅牢性を示すことがわかった。
さらに、ノイズラベルに対する堅牢性を高めるための最も効果的なアプローチとして、8つの自己指導手法の中で、対照的な学習が際立っている。
関連論文リスト
- Self-Relaxed Joint Training: Sample Selection for Severity Estimation with Ordinal Noisy Labels [5.892066196730197]
オーディナルの雑音ラベルを用いた学習のための新しいフレームワークを提案する。
私たちのフレームワークは、クリーンなサンプル選択とデュアルネットワークアーキテクチャの2つのテクニックを使用します。
2つの手法でソフトラベルとハードラベルを適切に使用することにより、より正確なサンプル選択と堅牢なネットワークトレーニングを実現する。
論文 参考訳(メタデータ) (2024-10-29T09:23:09Z) - A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - Investigating the Robustness of Vision Transformers against Label Noise
in Medical Image Classification [8.578500152567164]
医用画像分類データセットにおけるラベルノイズは、教師付き深層学習法の訓練を邪魔する。
プレトレーニングは、教師あり訓練におけるラベルノイズに対するViTの堅牢性向上に不可欠であることを示す。
論文 参考訳(メタデータ) (2024-02-26T16:53:23Z) - Improving Medical Image Classification in Noisy Labels Using Only
Self-supervised Pretraining [9.01547574908261]
ノイズラベルが深層学習に基づく教師付き画像分類性能を損なうのは、モデルがノイズに過度に適合し、劣化した特徴抽出器を学習するためである。
そこで本研究では,自己誘発ノイズラベルを持つ2つの医療データセットを対象とした,深層学習分類モデルの重み付けを初期化するための,コントラスト的,プレテキストなタスクベース自己教師型事前訓練について検討する。
その結果,自己教師付き学習から得られた事前学習重み付きモデルは,より優れた特徴を効果的に学習し,ノイズラベルに対する堅牢性を向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-08-08T19:45:06Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Co-Correcting: Noise-tolerant Medical Image Classification via mutual
Label Correction [5.994566233473544]
本稿では,Co-Correctingという耐雑音性医用画像分類フレームワークを提案する。
分類精度を大幅に向上させ、デュアルネットワーク相互学習、ラベル確率推定、カリキュラムラベルの修正を通じてより正確なラベルを得る。
実験により, 様々なタスクにおいて, 雑音比の異なるコココレクショニングが最適な精度と一般化を実現することが示された。
論文 参考訳(メタデータ) (2021-09-11T02:09:52Z) - Improving Medical Image Classification with Label Noise Using
Dual-uncertainty Estimation [72.0276067144762]
医用画像における2種類のラベルノイズについて論じ,定義する。
医用画像分類作業中にこれら2つのラベルノイズを処理する不確実性推定に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-28T14:56:45Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。