論文の概要: In Quest of Ground Truth: Learning Confident Models and Estimating
Uncertainty in the Presence of Annotator Noise
- arxiv url: http://arxiv.org/abs/2301.00524v1
- Date: Mon, 2 Jan 2023 04:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:45:40.566560
- Title: In Quest of Ground Truth: Learning Confident Models and Estimating
Uncertainty in the Presence of Annotator Noise
- Title(参考訳): 地中真理の探求--アノテータノイズの存在下での信頼モデル学習と不確かさの推定
- Authors: Asma Ahmed Hashmi, Artem Agafonov, Aigerim Zhumabayeva, Mohammad Yaqub
and Martin Tak\'a\v{c}
- Abstract要約: 本稿では,ノイズラベルの存在下での信頼度モデル学習手法を提案する。
これは、複数のアノテータの不確かさを推定すると共に行われる。
我々はMNIST, CIFAR-10, FMNISTデータセットのノイズバージョンについて実験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of the Deep Learning (DL) models depends on the quality of
labels. In some areas, the involvement of human annotators may lead to noise in
the data. When these corrupted labels are blindly regarded as the ground truth
(GT), DL models suffer from performance deficiency. This paper presents a
method that aims to learn a confident model in the presence of noisy labels.
This is done in conjunction with estimating the uncertainty of multiple
annotators.
We robustly estimate the predictions given only the noisy labels by adding
entropy or information-based regularizer to the classifier network. We conduct
our experiments on a noisy version of MNIST, CIFAR-10, and FMNIST datasets. Our
empirical results demonstrate the robustness of our method as it outperforms or
performs comparably to other state-of-the-art (SOTA) methods. In addition, we
evaluated the proposed method on the curated dataset, where the noise type and
level of various annotators depend on the input image style. We show that our
approach performs well and is adept at learning annotators' confusion.
Moreover, we demonstrate how our model is more confident in predicting GT than
other baselines. Finally, we assess our approach for segmentation problem and
showcase its effectiveness with experiments.
- Abstract(参考訳): ディープラーニング(DL)モデルのパフォーマンスはラベルの品質に依存します。
一部の領域では、人間のアノテータの関与はデータにノイズをもたらす可能性がある。
これらのラベルが盲目的に基底真理(GT)と見なされる場合、DLモデルは性能不足に悩まされる。
本稿では,ノイズラベルの存在下での信頼度モデル学習を目的とした手法を提案する。
これは複数のアノテータの不確かさを推定すると共に行われる。
分類器ネットワークにエントロピーや情報ベース正規化器を追加することにより,雑音ラベルのみの予測を頑健に推定する。
我々はMNIST, CIFAR-10, FMNISTデータセットのノイズバージョンについて実験を行った。
実験結果から,本手法はsof-the-art (sota) 法と比較して頑健性を示す。
さらに,様々なアノテータのノイズタイプとレベルが入力画像のスタイルに依存するようなキュレートデータセット上で,提案手法の評価を行った。
私たちのアプローチはうまく機能しており、注釈者の混乱を学ぶのに適しています。
さらに,我々のモデルが他のベースラインよりもgtの予測に自信を持っていることを示す。
最後に,セグメンテーション問題に対するアプローチを評価し,実験の有効性を示す。
関連論文リスト
- Benchmarking Label Noise in Instance Segmentation: Spatial Noise Matters [2.53740603524637]
本研究は,各種モデルによるセグメンテーションマスクの品質について光を当てる。
ラベルノイズによる学習に対処するために設計された一般的な手法の有効性に挑戦する。
論文 参考訳(メタデータ) (2024-06-16T10:49:23Z) - Noisy Label Processing for Classification: A Survey [2.8821062918162146]
長い、退屈なデータアノテーションのプロセスでは、アノテーションはミスをしがちで、画像のラベルが正しくない。
コンピュータビジョンタスク、特に分類タスクにおいて、ノイズの多いラベルと戦うことが不可欠である。
実世界のデータで導かれる合成ラベルノイズパターンを生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-05T15:11:09Z) - Fusing Conditional Submodular GAN and Programmatic Weak Supervision [5.300742881753571]
PWS(Programmatic Weak Supervision)と生成モデルは、データ収集や手動のアノテーションプロセスに頼ることなく、既存のデータセットの有用性を最大化する重要なツールとして機能する。
PWSは、データの基礎となるクラスラベルを推定するために様々な弱い監視技術を使用し、生成モデルは、主に与えられたデータセットの基盤分布からのサンプリングに集中する。
最近、WSGANは2つのモデルを融合させるメカニズムを提案した。
論文 参考訳(メタデータ) (2023-12-16T07:49:13Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Compensation Learning in Semantic Segmentation [22.105356244579745]
本研究では,曖昧さとラベルノイズを識別・補償するフレームワークであるセマンティックスケープにおける補償学習を提案する。
ニューラルネットワークに新たな不確実性分岐を導入し、関連する領域にのみ補償バイアスを誘導する。
提案手法は最先端のセグメンテーションフレームワークに応用され,いくつかの実験により,提案手法がクラス間関係を学習することを示す。
論文 参考訳(メタデータ) (2023-04-26T10:26:11Z) - Learning advisor networks for noisy image classification [22.77447144331876]
本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
論文 参考訳(メタデータ) (2022-11-08T11:44:08Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。