論文の概要: Label-noise-tolerant medical image classification via self-attention and
self-supervised learning
- arxiv url: http://arxiv.org/abs/2306.09718v1
- Date: Fri, 16 Jun 2023 09:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:32:00.110885
- Title: Label-noise-tolerant medical image classification via self-attention and
self-supervised learning
- Title(参考訳): 自己注意と自己教師付き学習によるラベルノイズ耐性医用画像分類
- Authors: Hongyang Jiang, Mengdi Gao, Yan Hu, Qiushi Ren, Zhaoheng Xie, Jiang
Liu
- Abstract要約: 医用画像分類におけるノイズラベルの悪影響を軽減するためのノイズローバストトレーニング手法を提案する。
具体的には、コントラスト学習とグループ内注意混合戦略をバニラ指導学習に取り入れる。
コントラスト学習とアテンション・ミックスアップによるノイズ・ロバスト手法がラベルノイズを効果的に扱えるかどうかを厳密な実験により検証した。
- 参考スコア(独自算出の注目度): 5.6827706625306345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have been widely applied in medical image
classification and achieve remarkable classification performance. These
achievements heavily depend on large-scale accurately annotated training data.
However, label noise is inevitably introduced in the medical image annotation,
as the labeling process heavily relies on the expertise and experience of
annotators. Meanwhile, DNNs suffer from overfitting noisy labels, degrading the
performance of models. Therefore, in this work, we innovatively devise
noise-robust training approach to mitigate the adverse effects of noisy labels
in medical image classification. Specifically, we incorporate contrastive
learning and intra-group attention mixup strategies into the vanilla supervised
learning. The contrastive learning for feature extractor helps to enhance
visual representation of DNNs. The intra-group attention mixup module
constructs groups and assigns self-attention weights for group-wise samples,
and subsequently interpolates massive noisy-suppressed samples through weighted
mixup operation. We conduct comparative experiments on both synthetic and
real-world noisy medical datasets under various noise levels. Rigorous
experiments validate that our noise-robust method with contrastive learning and
attention mixup can effectively handle with label noise, and is superior to
state-of-the-art methods. An ablation study also shows that both components
contribute to boost model performance. The proposed method demonstrates its
capability of curb label noise and has certain potential toward real-world
clinic applications.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は医用画像分類に広く応用されており、優れた分類性能を実現している。
これらの成果は、大規模に注釈付きトレーニングデータに依存する。
しかし,ラベリングプロセスは注釈者の専門知識と経験に大きく依存するため,医用画像アノテーションではラベルノイズが必然的に導入される。
一方、DNNはノイズの多いラベルに過度に適合し、モデルの性能が低下する。
そこで本研究では,医用画像分類におけるノイズラベルの悪影響を軽減するため,ノイズローバストトレーニングアプローチを革新的に考案する。
具体的には,対照学習とグループ内アテンションミックスアップ戦略を,教師付き学習に組み込む。
特徴抽出器の対照的な学習は、DNNの視覚的表現を高めるのに役立つ。
グループ内アテンション混合モジュールはグループを構成し、グループワイドサンプルに自己アテンション重みを割り当て、その後、重み付け混合操作により大規模なノイズ抑制サンプルを補間する。
各種ノイズレベルにおける合成および実世界のノイズ医学データセットの比較実験を行った。
厳密な実験により, コントラスト学習とアテンション混在によるノイズ・ロバスト手法がラベルノイズを効果的に扱えることが検証され, 最先端の手法よりも優れている。
アブレーションの研究では、両方の成分がモデル性能の向上に寄与していることも示されている。
提案手法は,ラベルノイズを抑える能力を示し,実際の臨床応用の可能性を示した。
関連論文リスト
- Active Label Refinement for Robust Training of Imbalanced Medical Image Classification Tasks in the Presence of High Label Noise [10.232537737211098]
雑音ラベル(LNL)とアクティブラーニングを組み合わせた2段階のアプローチを提案する。
提案手法は,少数クラスからのクリーンなサンプルをノイズの多いサンプルとして誤識別しないことで,クラス不均衡を扱う従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-08T14:16:05Z) - Contrastive-Based Deep Embeddings for Label Noise-Resilient Histopathology Image Classification [0.0]
ノイズラベルは 病理組織像の分類において 重要な課題です
ディープニューラルネットワークはラベルノイズに容易に適合し、モデル性能が大幅に低下する。
自己教師型コントラスト法で訓練した基礎モデルから抽出した埋め込みのラベル雑音耐性特性を示す。
論文 参考訳(メタデータ) (2024-04-11T09:47:52Z) - Investigating the Robustness of Vision Transformers against Label Noise
in Medical Image Classification [8.578500152567164]
医用画像分類データセットにおけるラベルノイズは、教師付き深層学習法の訓練を邪魔する。
プレトレーニングは、教師あり訓練におけるラベルノイズに対するViTの堅牢性向上に不可欠であることを示す。
論文 参考訳(メタデータ) (2024-02-26T16:53:23Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Improving Medical Image Classification with Label Noise Using
Dual-uncertainty Estimation [72.0276067144762]
医用画像における2種類のラベルノイズについて論じ,定義する。
医用画像分類作業中にこれら2つのラベルノイズを処理する不確実性推定に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-28T14:56:45Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。