論文の概要: A Committee of Convolutional Neural Networks for Image Classication in
the Concurrent Presence of Feature and Label Noise
- arxiv url: http://arxiv.org/abs/2004.10705v2
- Date: Mon, 22 Jun 2020 20:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 23:46:23.438772
- Title: A Committee of Convolutional Neural Networks for Image Classication in
the Concurrent Presence of Feature and Label Noise
- Title(参考訳): 特徴量とラベルノイズの同時発生時における画像の古典化のための畳み込みニューラルネットワーク委員会
- Authors: Stanis{\l}aw Ka\'zmierczak, Jacek Ma\'ndziuk
- Abstract要約: この研究は、両種類のノイズの同時発生問題に対処する最初の試みである。
実験により,委員会が単一モデルに勝る差が騒音レベルとともに大きくなることを示した。
本稿では,強力なベースラインアルゴリズムよりも優れた3つの委員会選択アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image classification has become a ubiquitous task. Models trained on good
quality data achieve accuracy which in some application domains is already
above human-level performance. Unfortunately, real-world data are quite often
degenerated by the noise existing in features and/or labels. There are quite
many papers that handle the problem of either feature or label noise,
separately. However, to the best of our knowledge, this piece of research is
the first attempt to address the problem of concurrent occurrence of both types
of noise. Basing on the MNIST, CIFAR-10 and CIFAR-100 datasets, we
experimentally proved that the difference by which committees beat single
models increases along with noise level, no matter it is an attribute or label
disruption. Thus, it makes ensembles legitimate to be applied to noisy images
with noisy labels. The aforementioned committees' advantage over single models
is positively correlated with dataset difficulty level as well. We propose
three committee selection algorithms that outperform a strong baseline
algorithm which relies on an ensemble of individual (nonassociated) best
models.
- Abstract(参考訳): 画像分類はユビキタスなタスクとなっている。
高品質なデータに基づいてトレーニングされたモデルは、いくつかのアプリケーション領域ですでに人間レベルのパフォーマンス以上である精度を達成する。
残念なことに、実際のデータは、機能やラベルに存在するノイズによって、しばしばデジェネレーションされる。
特徴またはラベルノイズの問題を別々に扱う多くの論文がある。
しかし、私たちの知る限りでは、この研究は両方のタイプのノイズが同時に発生する問題に対処する最初の試みです。
MNIST, CIFAR-10, CIFAR-100データセットを用いて, 委員会が単一モデルに打ち勝つ差は, 属性やラベルの破壊であっても, ノイズレベルとともに増加することを示した。
これにより、ノイズラベル付きノイズ画像に適用できるアンサンブルが合法となる。
前述の委員会の単一モデルに対する優位性は、データセットの難易度とも正の相関がある。
本稿では,個々の(非関連)最良モデルのアンサンブルに依存する強いベースラインアルゴリズムに勝る3つの委員会選択アルゴリズムを提案する。
関連論文リスト
- AlleNoise: large-scale text classification benchmark dataset with real-world label noise [40.11095094521714]
我々は、実世界のインスタンス依存ラベルノイズを持つ新しいキュレートされたテキスト分類ベンチマークであるAlleNoiseを提示する。
ノイズの分布は、主要なeコマースマーケットプレースの実際のユーザから来ており、人間のミスの意味を現実的に反映している。
このような実環境騒音に対処するには,雑音ラベルを用いた学習方法の代表的選択が不十分であることを示す。
論文 参考訳(メタデータ) (2024-06-24T09:29:14Z) - Multiclass Learning from Noisy Labels for Non-decomposable Performance Measures [15.358504449550013]
非分解性性能尺度の2つのクラスに対して雑音ラベルから学習するアルゴリズムを設計する。
どちらの場合も、広範に研究されているクラス条件雑音モデルの下で、アルゴリズムのノイズ補正バージョンを開発する。
実験では,ラベルノイズ処理におけるアルゴリズムの有効性を実証した。
論文 参考訳(メタデータ) (2024-02-01T23:03:53Z) - Rethinking the Value of Labels for Instance-Dependent Label Noise
Learning [43.481591776038144]
実世界のアプリケーションにおけるノイズの多いラベルは、しばしば真のラベルと機能の両方に依存します。
本研究では、ノイズ遷移行列を明示的にモデル化しない新しい深層生成モデルを用いて、インスタンス依存ラベルノイズに対処する。
提案アルゴリズムは,カジュアルな表現学習を活用し,データから高レベルのコンテンツとスタイルの潜伏要素を同時に識別する。
論文 参考訳(メタデータ) (2023-05-10T15:29:07Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Learning with Noisy Labels Revisited: A Study Using Real-World Human
Annotations [54.400167806154535]
ノイズラベルを用いた学習に関する既存の研究は、主に合成ラベルノイズに焦点を当てている。
本研究は2つの新しいベンチマークデータセット(CIFAR-10N, CIFAR-100N)を示す。
実世界のノイズラベルは古典的に採用されたクラス依存のラベルではなく、インスタンス依存のパターンに従うことを示す。
論文 参考訳(メタデータ) (2021-10-22T22:42:11Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Learning with Group Noise [106.56780716961732]
グループノイズを用いた学習のための新しいマックスマッチング手法を提案する。
いくつかの学習パラダイムの領域における実世界のデータセットのレンジのパフォーマンスは、Max-Matchingの有効性を示している。
論文 参考訳(メタデータ) (2021-03-17T06:57:10Z) - Learning with Feature-Dependent Label Noise: A Progressive Approach [19.425199841491246]
一般的なi.i.dよりもはるかに一般的である特徴依存ラベルノイズの新しいファミリーを提案する。
ラベルノイズ。
我々は、様々な(未知)ノイズパターンに対して、この戦略で訓練された分類器がベイズ分類器と一致するように収束することを示す理論的保証を提供する。
論文 参考訳(メタデータ) (2021-03-13T17:34:22Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。