論文の概要: Annot-Mix: Learning with Noisy Class Labels from Multiple Annotators via a Mixup Extension
- arxiv url: http://arxiv.org/abs/2405.03386v1
- Date: Mon, 6 May 2024 11:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 13:56:21.486160
- Title: Annot-Mix: Learning with Noisy Class Labels from Multiple Annotators via a Mixup Extension
- Title(参考訳): Annot-Mix: 混合拡張による複数アノテーションからのノイズのあるクラスラベルによる学習
- Authors: Marek Herde, Lukas Lührs, Denis Huseljic, Bernhard Sick,
- Abstract要約: ノイズのあるクラスラベルによるトレーニングは、ニューラルネットワークの一般化性能を損なう。
インスタンス毎に複数のクラスラベルを処理するmixupの拡張を提案する。
マルチアノテーション分類フレームワークAnnot-mixに統合しました。
- 参考スコア(独自算出の注目度): 1.99197168821625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training with noisy class labels impairs neural networks' generalization performance. In this context, mixup is a popular regularization technique to improve training robustness by making memorizing false class labels more difficult. However, mixup neglects that, typically, multiple annotators, e.g., crowdworkers, provide class labels. Therefore, we propose an extension of mixup, which handles multiple class labels per instance while considering which class label originates from which annotator. Integrated into our multi-annotator classification framework annot-mix, it performs superiorly to eight state-of-the-art approaches on eleven datasets with noisy class labels provided either by human or simulated annotators. Our code is publicly available through our repository at https://github.com/ies-research/annot-mix.
- Abstract(参考訳): ノイズのあるクラスラベルによるトレーニングは、ニューラルネットワークの一般化性能を損なう。
この文脈では、ミックスアップは、偽クラスラベルの記憶をより困難にすることで、トレーニングの堅牢性を改善するための一般的な正規化手法である。
しかしmixupは、一般的に複数のアノテーション、例えばクラウドワーカーがクラスラベルを提供することを無視する。
そこで本研究では,各インスタンス毎に複数のクラスラベルを処理し,どのクラスラベルがアノテータから派生しているかを考慮しながら,mixupの拡張を提案する。
マルチアノテータ分類フレームワークAnnot-mixに統合され、人間またはシミュレートされたアノテータによって提供されるノイズの多いクラスラベルを持つ11のデータセットに対して、最先端の8つのアプローチよりも優れている。
私たちのコードは、https://github.com/ies-research/annot-mix.comのリポジトリから公開されています。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Towards Imbalanced Large Scale Multi-label Classification with Partially
Annotated Labels [8.977819892091]
マルチラベル分類は、複数のクラスにインスタンスを関連付けることができる日常生活において、広く発生する問題である。
本研究では,ラベルの不均衡の問題に対処し,部分ラベルを用いたニューラルネットワークのトレーニング方法について検討する。
論文 参考訳(メタデータ) (2023-07-31T21:50:48Z) - Review of Extreme Multilabel Classification [1.888738346075831]
極端なマルチラベル分類(英: Extreme multilabel classification、XML)は、機械学習における活発な関心領域である。
コミュニティは、頭や尾のラベルの予測を正しく識別するために有用なメトリクスセットを考案した。
論文 参考訳(メタデータ) (2023-02-12T18:29:20Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training [32.45488147013166]
Pseudo-labelingは、半教師付き学習(SSL)の鍵となるコンポーネントである
本論文では,ラベルセマンティクスとコトレーニングを活用した問題解決手法であるSemCoを提案する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-04-12T07:33:16Z) - Evaluating Multi-label Classifiers with Noisy Labels [0.7868449549351487]
実世界では、クリーンなデータセットよりもノイズの多いデータセットを扱う方が一般的です。
雑音ラベルを効果的に処理するコンテキストベースマルチラベル分類器(CbMLC)を提案する。
CbMLCは、ほとんどの場合、以前の方法よりも大幅に改善されています。
論文 参考訳(メタデータ) (2021-02-16T19:50:52Z) - OpenMix: Reviving Known Knowledge for Discovering Novel Visual
Categories in An Open World [127.64076228829606]
オープンセットからのラベルなし例と既知のクラスからのラベル付き例を混合するために、OpenMixを導入します。
OpenMixは、間違った擬似ラベルで割り当てられる可能性のあるラベルのないサンプルに対して、モデルが過度に適合することを防ぐのに役立つ。
論文 参考訳(メタデータ) (2020-04-12T05:52:39Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。