論文の概要: BoMD: Bag of Multi-label Descriptors for Noisy Chest X-ray
Classification
- arxiv url: http://arxiv.org/abs/2203.01937v5
- Date: Wed, 9 Aug 2023 08:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 18:40:29.282049
- Title: BoMD: Bag of Multi-label Descriptors for Noisy Chest X-ray
Classification
- Title(参考訳): BoMD: ノイズの多い胸部X線分類のためのマルチラベルディスクリプタのバグ
- Authors: Yuanhong Chen, Fengbei Liu, Hu Wang, Chong Wang, Yu Tian, Yuyuan Liu,
Gustavo Carneiro
- Abstract要約: 新しい医用画像分類問題は、放射線医学レポートから抽出された機械生成ノイズラベルに依存する必要があるかもしれない。
マルチクラス問題に対して設計された現在の雑音ラベル学習法は容易には適用できない。
本稿では,データセットからサンプルを検出し,スムーズに再ラベルする,ノイズの多い多ラベルCXR学習のための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 25.76256302330625
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning methods have shown outstanding classification accuracy in
medical imaging problems, which is largely attributed to the availability of
large-scale datasets manually annotated with clean labels. However, given the
high cost of such manual annotation, new medical imaging classification
problems may need to rely on machine-generated noisy labels extracted from
radiology reports. Indeed, many Chest X-ray (CXR) classifiers have already been
modelled from datasets with noisy labels, but their training procedure is in
general not robust to noisy-label samples, leading to sub-optimal models.
Furthermore, CXR datasets are mostly multi-label, so current noisy-label
learning methods designed for multi-class problems cannot be easily adapted. In
this paper, we propose a new method designed for the noisy multi-label CXR
learning, which detects and smoothly re-labels samples from the dataset, which
is then used to train common multi-label classifiers. The proposed method
optimises a bag of multi-label descriptors (BoMD) to promote their similarity
with the semantic descriptors produced by BERT models from the multi-label
image annotation. Our experiments on diverse noisy multi-label training sets
and clean testing sets show that our model has state-of-the-art accuracy and
robustness in many CXR multi-label classification benchmarks.
- Abstract(参考訳): 深層学習法は、医用画像問題において顕著な分類精度を示しており、これは主に、クリーンラベルを手動でアノテートした大規模なデータセットが利用可能であることに起因する。
しかし, 手動注記のコストが高いことから, 新たな医用画像分類問題は, 放射線報告書から抽出された機械生成雑音ラベルに依存する必要があると考えられる。
実際、多くのチェストX線分類器(CXR)はすでにノイズラベルを持つデータセットからモデル化されているが、その訓練手順は一般にノイズラベルサンプルに対して堅牢ではないため、準最適モデルにつながる。
さらに、CXRデータセットは主にマルチラベルであるため、現在のマルチクラス問題用に設計されたノイズラベル学習手法は容易に適応できない。
本稿では,データセットからサンプルを検出・スムースにラベル付けし,一般的なマルチラベル分類器の訓練に使用する,ノイズの多いマルチラベルcxr学習のための新しい手法を提案する。
提案手法は,マルチラベル画像アノテーションからBERTモデルによって生成された意味記述子と類似性を促進するために,複数ラベル記述子の袋を最適化する。
ノイズの多いマルチラベルトレーニングセットとクリーンなテストセットに関する実験では、多くのcxrマルチラベル分類ベンチマークにおいて、最先端の精度と堅牢性が得られた。
関連論文リスト
- Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - On the Effects of Different Types of Label Noise in Multi-Label Remote
Sensing Image Classification [1.6758573326215689]
リモートセンシング(RS)画像のマルチラベル分類(MLC)のための高精度な手法の開発は、RSにおいて最も重要な研究トピックの1つである。
複数のランドカバークラスラベル (multi-labels) でアノテートされた多数の信頼できるトレーニングイメージを必要とするディープニューラルネットワークの使用は、RSで人気がある。
本稿では,3つの異なる雑音頑健なCV SLC法について検討し,RSのマルチラベル雑音シナリオに対して頑健であるように適応する。
論文 参考訳(メタデータ) (2022-07-28T09:38:30Z) - Dual-Perspective Semantic-Aware Representation Blending for Multi-Label
Image Recognition with Partial Labels [70.36722026729859]
本稿では,多粒度カテゴリ固有の意味表現を異なる画像にブレンドした,二重パースペクティブな意味認識表現ブレンディング(DSRB)を提案する。
提案したDSは、すべての比率ラベル設定において、最先端のアルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-26T00:33:44Z) - Semantic-Aware Representation Blending for Multi-Label Image Recognition
with Partial Labels [86.17081952197788]
そこで我々は,未知のラベルを補うために,異なる画像にカテゴリ固有の表現をブレンドして,既知のラベルの情報を伝達することを提案する。
MS-COCO、Visual Genome、Pascal VOC 2007データセットの実験は、提案されたSARBフレームワークが、現在の主要な競合相手よりも優れたパフォーマンスを得ることを示している。
論文 参考訳(メタデータ) (2022-03-04T07:56:16Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - Noisy Label Learning for Large-scale Medical Image Classification [37.79118840129632]
我々は,最先端のノイズラベルマルチクラストレーニングアプローチを適用し,データセットの胸部x線14のマルチラベル分類器を学習する。
Chest X-ray14 のラベルノイズの大半が 'No Finding' クラスに存在することを示し、これはラベルミスによる 14 疾患の 1 つ以上を含む可能性が高いクラスであるため直感的に正しい。
論文 参考訳(メタデータ) (2021-03-06T07:42:36Z) - Learning Image Labels On-the-fly for Training Robust Classification
Models [13.669654965671604]
ノイズの多いアノテーション(例えば、異なるアルゴリズムベースのラベル付け子から)を一緒に利用し、相互に分類タスクの学習に役立てることができるかを示す。
メタトレーニングベースのラベルサンプリングモジュールは、追加のバックプロパゲーションプロセスを通じてモデル学習の恩恵を受けるラベルに出席するように設計されている。
論文 参考訳(メタデータ) (2020-09-22T05:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。