論文の概要: Learning from Noisy Labels with Noise Modeling Network
- arxiv url: http://arxiv.org/abs/2005.00596v1
- Date: Fri, 1 May 2020 20:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 22:43:14.141523
- Title: Learning from Noisy Labels with Noise Modeling Network
- Title(参考訳): ノイズモデリングネットワークを用いた雑音ラベルからの学習
- Authors: Zhuolin Jiang, Jan Silovsky, Man-Hung Siu, William Hartmann, Herbert
Gish, Sancar Adali
- Abstract要約: ノイズモデリングネットワーク(NMN)は、私たちの畳み込みニューラルネットワーク(CNN)に従い、それを統合します。
NMNはノイズデータから直接ノイズパターンの分布を学習する。
統合NMN/CNN学習システムでは,一貫した分類性能の向上が期待できる。
- 参考スコア(独自算出の注目度): 7.523041606515877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-label image classification has generated significant interest in recent
years and the performance of such systems often suffers from the not so
infrequent occurrence of incorrect or missing labels in the training data. In
this paper, we extend the state-of the-art of training classifiers to jointly
deal with both forms of errorful data. We accomplish this by modeling noisy and
missing labels in multi-label images with a new Noise Modeling Network (NMN)
that follows our convolutional neural network (CNN), integrates with it,
forming an end-to-end deep learning system, which can jointly learn the noise
distribution and CNN parameters. The NMN learns the distribution of noise
patterns directly from the noisy data without the need for any clean training
data. The NMN can model label noise that depends only on the true label or is
also dependent on the image features. We show that the integrated NMN/CNN
learning system consistently improves the classification performance, for
different levels of label noise, on the MSR-COCO dataset and MSR-VTT dataset.
We also show that noise performance improvements are obtained when multiple
instance learning methods are used.
- Abstract(参考訳): マルチラベル画像分類は近年大きな関心を集めており、そのようなシステムの性能はトレーニングデータにおける不正確なラベルや欠落ラベルの頻度の低い発生に悩まされることが多い。
本稿では,両形態の誤りデータを扱うために,訓練用分類器の最先端技術を拡張する。
我々は、畳み込みニューラルネットワーク(CNN)に続く新しいノイズモデリングネットワーク(NMN)により、マルチラベル画像のノイズやラベルの欠落をモデル化し、それを統合し、エンドツーエンドのディープラーニングシステムを構築し、ノイズ分布とCNNパラメータを共同で学習する。
NMNは、クリーンなトレーニングデータを必要とせずに、ノイズデータから直接ノイズパターンの分布を学習する。
NMNは、真のラベルに依存するか、画像の特徴に依存するラベルノイズをモデル化することができる。
統合NMN/CNN学習システムは,MSR-COCOデータセットとMSR-VTTデータセットにおいて,ラベルノイズのレベルが異なる場合の分類性能を一貫して向上することを示す。
また,複数のインスタンス学習手法を用いた場合,ノイズパフォーマンスが向上することを示す。
関連論文リスト
- Learning Confident Classifiers in the Presence of Label Noise [5.829762367794509]
本稿では,ノイズ観測のための確率論的モデルを提案し,信頼性の高い分類とセグメンテーションモデルの構築を可能にする。
実験により,本アルゴリズムは,検討された分類問題と分割問題に対して,最先端の解よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-01-02T04:27:25Z) - Learning advisor networks for noisy image classification [22.77447144331876]
本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
論文 参考訳(メタデータ) (2022-11-08T11:44:08Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Instance-Dependent Noisy Label Learning via Graphical Modelling [30.922188228545906]
ディープラーニングのエコシステムでは、モデルが簡単に過度に適合できるため、ノイズの多いラベルは厄介です。
本稿では、識別モデルと生成モデルを組み合わせた、インスタンスGMと呼ばれる新しいグラフィカルモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T09:27:37Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。