論文の概要: Hard Sample Aware Noise Robust Learning for Histopathology Image
Classification
- arxiv url: http://arxiv.org/abs/2112.03694v1
- Date: Sun, 5 Dec 2021 11:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:34:39.325257
- Title: Hard Sample Aware Noise Robust Learning for Histopathology Image
Classification
- Title(参考訳): 病理画像分類のためのハードサンプル認識ノイズロバスト学習
- Authors: Chuang Zhu, Wenkai Chen, Ting Peng, Ying Wang, Mulan Jin
- Abstract要約: 病理組織像分類のための新しいハードサンプル認識型ノイズロバスト学習法を提案する。
本研究は, 難燃性難燃性試料と難燃性試料とを識別するため, 簡易・難燃性検出モデルを構築した。
本稿では,雑音抑圧・高強度化(NSHE)方式を提案する。
- 参考スコア(独自算出の注目度): 4.75542005200538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based histopathology image classification is a key technique to
help physicians in improving the accuracy and promptness of cancer diagnosis.
However, the noisy labels are often inevitable in the complex manual annotation
process, and thus mislead the training of the classification model. In this
work, we introduce a novel hard sample aware noise robust learning method for
histopathology image classification. To distinguish the informative hard
samples from the harmful noisy ones, we build an easy/hard/noisy (EHN)
detection model by using the sample training history. Then we integrate the EHN
into a self-training architecture to lower the noise rate through gradually
label correction. With the obtained almost clean dataset, we further propose a
noise suppressing and hard enhancing (NSHE) scheme to train the noise robust
model. Compared with the previous works, our method can save more clean samples
and can be directly applied to the real-world noisy dataset scenario without
using a clean subset. Experimental results demonstrate that the proposed scheme
outperforms the current state-of-the-art methods in both the synthetic and
real-world noisy datasets. The source code and data are available at
https://github.com/bupt-ai-cz/HSA-NRL/.
- Abstract(参考訳): 深層学習に基づく病理組織学画像分類は、がん診断の正確性と迅速性を改善するための重要な手法である。
しかし、複雑な手動アノテーションプロセスではノイズラベルは避けられないことが多く、したがって分類モデルのトレーニングを誤解させる。
本稿では,病理組織像分類のための新しいハードサンプル認識ノイズロバスト学習法を提案する。
有益なハードサンプルと有害なノイズのサンプルを区別するため,サンプルトレーニング履歴を用いてehn(easy/hard/noisy)検出モデルを構築した。
そして、EHNを自己学習アーキテクチャに統合し、徐々にラベルの修正によってノイズ率を下げる。
得られたほぼクリーンなデータセットを用いて、ノイズロバストモデルをトレーニングするためのノイズ抑制・ハードエンハンスメント(nshe)スキームを提案する。
従来の作業と比較して,よりクリーンなサンプルを保存でき,クリーンなサブセットを使わずに,現実世界の騒がしいデータセットシナリオに直接適用できる。
実験結果から,提案手法は,合成および実世界のノイズデータセットにおいて,現在の最先端手法よりも優れていた。
ソースコードとデータはhttps://github.com/bupt-ai-cz/hsa-nrl/で入手できる。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Instance-dependent Noisy-label Learning with Graphical Model Based Noise-rate Estimation [16.283722126438125]
ラベルノイズ学習(LNL)は、クリーンでノイズの多いラベルサンプルを区別するためにサンプル選択段階を組み込む。
このようなカリキュラムは、トレーニングセットの実際のラベルノイズ率を考慮していないため、準最適である。
本稿では,ほとんどのSOTA (State-of-the-art) LNL法と容易に統合できる新しいノイズレート推定法を用いて,この問題に対処する。
論文 参考訳(メタデータ) (2023-05-31T01:46:14Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Contrastive Learning Improves Model Robustness Under Label Noise [3.756550107432323]
コントラスト学習で学習した表現を用いて教師付きロバスト手法を初期化することで,ラベル雑音下での性能が著しく向上することを示す。
最も単純な方法でさえ、コントラスト学習の場合、高いラベルノイズの下で最先端のSSLメソッドを50%以上上回ることができます。
論文 参考訳(メタデータ) (2021-04-19T00:27:58Z) - Deep k-NN for Noisy Labels [55.97221021252733]
予備モデルのロジット層上での単純な$k$-nearest近傍フィルタリング手法により、ラベルの誤りを除去し、最近提案された多くの手法よりも正確なモデルを生成することができることを示す。
論文 参考訳(メタデータ) (2020-04-26T05:15:36Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。