論文の概要: Attention-Aware Noisy Label Learning for Image Classification
- arxiv url: http://arxiv.org/abs/2009.14757v1
- Date: Wed, 30 Sep 2020 15:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:03:54.132543
- Title: Attention-Aware Noisy Label Learning for Image Classification
- Title(参考訳): 画像分類のための注意型雑音ラベル学習
- Authors: Zhenzhen Wang, Chunyan Xu, Yap-Peng Tan and Junsong Yuan
- Abstract要約: 大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
- 参考スコア(独自算出の注目度): 97.26664962498887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks (CNNs) learned on large-scale labeled
samples have achieved remarkable progress in computer vision, such as
image/video classification. The cheapest way to obtain a large body of labeled
visual data is to crawl from websites with user-supplied labels, such as
Flickr. However, these samples often tend to contain incorrect labels (i.e.
noisy labels), which will significantly degrade the network performance. In
this paper, the attention-aware noisy label learning approach ($A^2NL$) is
proposed to improve the discriminative capability of the network trained on
datasets with potential label noise. Specifically, a Noise-Attention model,
which contains multiple noise-specific units, is designed to better capture
noisy information. Each unit is expected to learn a specific noisy distribution
for a subset of images so that different disturbances are more precisely
modeled. Furthermore, a recursive learning process is introduced to strengthen
the learning ability of the attention network by taking advantage of the
learned high-level knowledge. To fully evaluate the proposed method, we conduct
experiments from two aspects: manually flipped label noise on large-scale image
classification datasets, including CIFAR-10, SVHN; and real-world label noise
on an online crawled clothing dataset with multiple attributes. The superior
results over state-of-the-art methods validate the effectiveness of our
proposed approach.
- Abstract(参考訳): 大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(cnns)は,画像や映像の分類など,コンピュータビジョンにおいて著しい進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
しかしながら、これらのサンプルは、しばしば間違ったラベル(すなわちノイズラベル)を含む傾向があり、ネットワーク性能を著しく低下させる。
本稿では,潜在的なラベルノイズのあるデータセットで学習したネットワークの識別能力を向上させるために,注目を意識したラベル学習手法(A^2NL$)を提案する。
特に、複数のノイズ固有ユニットを含むノイズアテンションモデルは、ノイズ情報をよりよく捉えるように設計されている。
各ユニットは、画像のサブセットに対して特定のノイズ分布を学習し、異なる外乱をより正確にモデル化することが期待される。
さらに、学習したハイレベルな知識を活用して、注目ネットワークの学習能力を高めるために、再帰学習プロセスを導入する。
提案手法を十分に評価するために,CIFAR-10,SVHNを含む大規模画像分類データセットのラベルノイズを手動でフリップし,複数属性のオンラインクロール衣料データセットのラベルノイズを実世界のラベルノイズとする実験を行った。
最先端手法よりも優れた結果が提案手法の有効性を検証した。
関連論文リスト
- A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Learning advisor networks for noisy image classification [22.77447144331876]
本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
論文 参考訳(メタデータ) (2022-11-08T11:44:08Z) - Learning to Aggregate and Refine Noisy Labels for Visual Sentiment
Analysis [69.48582264712854]
本研究では,頑健な視覚的感情分析を行うための頑健な学習手法を提案する。
本手法は,トレーニング中にノイズラベルを集約・フィルタリングするために外部メモリに依存している。
公開データセットを用いたラベルノイズを用いた視覚的感情分析のベンチマークを構築した。
論文 参考訳(メタデータ) (2021-09-15T18:18:28Z) - Distilling effective supervision for robust medical image segmentation
with noisy labels [21.68138582276142]
本稿では,画素レベルと画像レベルの両方から効果的な監視情報を抽出することにより,ノイズラベルによるセグメント化に対処する新しい枠組みを提案する。
特に,各画素の不確かさを画素単位の雑音推定として明確に推定する。
画素レベルの学習を補完する画像レベルの頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T13:33:38Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - ExpertNet: Adversarial Learning and Recovery Against Noisy Labels [8.88412854076574]
本稿では,AmateurとExpertで構成された新しいフレームワークを提案する。
訓練されたアマチュアとエキスパートは、画像とノイズラベルを積極的に利用して画像クラスを推論する。
CIFAR-10, CIFAR-100, およびChrothing1Mの実環境データに対する実験結果から, 提案モデルが幅広い雑音比に対して頑健な分類を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-07-10T11:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。